{ "best_global_step": null, "best_metric": null, "best_model_checkpoint": null, "epoch": 1.0, "eval_steps": 500, "global_step": 3000, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.0003333333333333333, "grad_norm": 38.693565368652344, "learning_rate": 0.0, "loss": 2.1137, "num_tokens": 361.0, "step": 1 }, { "epoch": 0.0006666666666666666, "grad_norm": 43.185150146484375, "learning_rate": 2.2222222222222224e-07, "loss": 2.294, "num_tokens": 686.0, "step": 2 }, { "epoch": 0.001, "grad_norm": 28.609718322753906, "learning_rate": 4.444444444444445e-07, "loss": 1.4308, "num_tokens": 1148.0, "step": 3 }, { "epoch": 0.0013333333333333333, "grad_norm": 36.48204803466797, "learning_rate": 6.666666666666667e-07, "loss": 1.7668, "num_tokens": 1520.0, "step": 4 }, { "epoch": 0.0016666666666666668, "grad_norm": 24.83543586730957, "learning_rate": 8.88888888888889e-07, "loss": 1.4162, "num_tokens": 2102.0, "step": 5 }, { "epoch": 0.002, "grad_norm": 23.894432067871094, "learning_rate": 1.111111111111111e-06, "loss": 1.3135, "num_tokens": 2636.0, "step": 6 }, { "epoch": 0.0023333333333333335, "grad_norm": 31.298288345336914, "learning_rate": 1.3333333333333334e-06, "loss": 1.6684, "num_tokens": 3054.0, "step": 7 }, { "epoch": 0.0026666666666666666, "grad_norm": 32.86004638671875, "learning_rate": 1.5555555555555558e-06, "loss": 1.8066, "num_tokens": 3477.0, "step": 8 }, { "epoch": 0.003, "grad_norm": 29.840923309326172, "learning_rate": 1.777777777777778e-06, "loss": 1.7083, "num_tokens": 3923.0, "step": 9 }, { "epoch": 0.0033333333333333335, "grad_norm": 31.29963493347168, "learning_rate": 2.0000000000000003e-06, "loss": 1.726, "num_tokens": 4347.0, "step": 10 }, { "epoch": 0.0036666666666666666, "grad_norm": 29.037662506103516, "learning_rate": 2.222222222222222e-06, "loss": 1.7684, "num_tokens": 4729.0, "step": 11 }, { "epoch": 0.004, "grad_norm": 23.98295783996582, "learning_rate": 2.4444444444444447e-06, "loss": 1.5255, "num_tokens": 5228.0, "step": 12 }, { "epoch": 0.004333333333333333, "grad_norm": 33.105438232421875, "learning_rate": 2.666666666666667e-06, "loss": 1.8375, "num_tokens": 5695.0, "step": 13 }, { "epoch": 0.004666666666666667, "grad_norm": 24.56332778930664, "learning_rate": 2.888888888888889e-06, "loss": 1.3411, "num_tokens": 6269.0, "step": 14 }, { "epoch": 0.005, "grad_norm": 29.936965942382812, "learning_rate": 3.1111111111111116e-06, "loss": 1.4998, "num_tokens": 6704.0, "step": 15 }, { "epoch": 0.005333333333333333, "grad_norm": 24.450599670410156, "learning_rate": 3.3333333333333333e-06, "loss": 1.2372, "num_tokens": 7216.0, "step": 16 }, { "epoch": 0.005666666666666667, "grad_norm": 36.662879943847656, "learning_rate": 3.555555555555556e-06, "loss": 1.8152, "num_tokens": 7557.0, "step": 17 }, { "epoch": 0.006, "grad_norm": 29.97691535949707, "learning_rate": 3.777777777777778e-06, "loss": 1.4676, "num_tokens": 8066.0, "step": 18 }, { "epoch": 0.006333333333333333, "grad_norm": 22.799442291259766, "learning_rate": 4.000000000000001e-06, "loss": 1.3192, "num_tokens": 8598.0, "step": 19 }, { "epoch": 0.006666666666666667, "grad_norm": 20.752830505371094, "learning_rate": 4.222222222222223e-06, "loss": 1.1207, "num_tokens": 9319.0, "step": 20 }, { "epoch": 0.007, "grad_norm": 31.14697265625, "learning_rate": 4.444444444444444e-06, "loss": 1.5056, "num_tokens": 9763.0, "step": 21 }, { "epoch": 0.007333333333333333, "grad_norm": 23.135406494140625, "learning_rate": 4.666666666666667e-06, "loss": 1.2748, "num_tokens": 10267.0, "step": 22 }, { "epoch": 0.007666666666666666, "grad_norm": 36.023582458496094, "learning_rate": 4.888888888888889e-06, "loss": 1.7945, "num_tokens": 10690.0, "step": 23 }, { "epoch": 0.008, "grad_norm": 36.81800842285156, "learning_rate": 5.1111111111111115e-06, "loss": 1.7839, "num_tokens": 11035.0, "step": 24 }, { "epoch": 0.008333333333333333, "grad_norm": 25.811994552612305, "learning_rate": 5.333333333333334e-06, "loss": 1.1284, "num_tokens": 11593.0, "step": 25 }, { "epoch": 0.008666666666666666, "grad_norm": 42.21250534057617, "learning_rate": 5.555555555555557e-06, "loss": 1.6988, "num_tokens": 11865.0, "step": 26 }, { "epoch": 0.009, "grad_norm": 42.604698181152344, "learning_rate": 5.777777777777778e-06, "loss": 1.5929, "num_tokens": 12171.0, "step": 27 }, { "epoch": 0.009333333333333334, "grad_norm": 29.70273780822754, "learning_rate": 6e-06, "loss": 1.285, "num_tokens": 12752.0, "step": 28 }, { "epoch": 0.009666666666666667, "grad_norm": 27.72660255432129, "learning_rate": 6.222222222222223e-06, "loss": 1.223, "num_tokens": 13298.0, "step": 29 }, { "epoch": 0.01, "grad_norm": 46.37014389038086, "learning_rate": 6.444444444444445e-06, "loss": 1.6382, "num_tokens": 13532.0, "step": 30 }, { "epoch": 0.010333333333333333, "grad_norm": 46.5230598449707, "learning_rate": 6.666666666666667e-06, "loss": 1.7266, "num_tokens": 13798.0, "step": 31 }, { "epoch": 0.010666666666666666, "grad_norm": 47.3441276550293, "learning_rate": 6.88888888888889e-06, "loss": 1.7317, "num_tokens": 14072.0, "step": 32 }, { "epoch": 0.011, "grad_norm": 27.955442428588867, "learning_rate": 7.111111111111112e-06, "loss": 1.0365, "num_tokens": 14601.0, "step": 33 }, { "epoch": 0.011333333333333334, "grad_norm": 43.39369583129883, "learning_rate": 7.333333333333333e-06, "loss": 1.4398, "num_tokens": 14937.0, "step": 34 }, { "epoch": 0.011666666666666667, "grad_norm": 40.29633712768555, "learning_rate": 7.555555555555556e-06, "loss": 1.6149, "num_tokens": 15286.0, "step": 35 }, { "epoch": 0.012, "grad_norm": 20.111738204956055, "learning_rate": 7.77777777777778e-06, "loss": 0.6088, "num_tokens": 16050.0, "step": 36 }, { "epoch": 0.012333333333333333, "grad_norm": 29.654382705688477, "learning_rate": 8.000000000000001e-06, "loss": 1.2927, "num_tokens": 16544.0, "step": 37 }, { "epoch": 0.012666666666666666, "grad_norm": 16.448333740234375, "learning_rate": 8.222222222222222e-06, "loss": 0.8493, "num_tokens": 17319.0, "step": 38 }, { "epoch": 0.013, "grad_norm": 27.586576461791992, "learning_rate": 8.444444444444446e-06, "loss": 1.0355, "num_tokens": 17698.0, "step": 39 }, { "epoch": 0.013333333333333334, "grad_norm": 32.87131118774414, "learning_rate": 8.666666666666668e-06, "loss": 1.2475, "num_tokens": 18006.0, "step": 40 }, { "epoch": 0.013666666666666667, "grad_norm": 29.923601150512695, "learning_rate": 8.888888888888888e-06, "loss": 1.1324, "num_tokens": 18317.0, "step": 41 }, { "epoch": 0.014, "grad_norm": 28.666540145874023, "learning_rate": 9.111111111111112e-06, "loss": 1.3494, "num_tokens": 18747.0, "step": 42 }, { "epoch": 0.014333333333333333, "grad_norm": 28.173542022705078, "learning_rate": 9.333333333333334e-06, "loss": 1.2247, "num_tokens": 19145.0, "step": 43 }, { "epoch": 0.014666666666666666, "grad_norm": 36.888771057128906, "learning_rate": 9.555555555555556e-06, "loss": 1.4138, "num_tokens": 19406.0, "step": 44 }, { "epoch": 0.015, "grad_norm": 29.955352783203125, "learning_rate": 9.777777777777779e-06, "loss": 1.2402, "num_tokens": 19798.0, "step": 45 }, { "epoch": 0.015333333333333332, "grad_norm": 34.99082946777344, "learning_rate": 1e-05, "loss": 1.3513, "num_tokens": 20197.0, "step": 46 }, { "epoch": 0.015666666666666666, "grad_norm": 19.46980094909668, "learning_rate": 1.0222222222222223e-05, "loss": 0.9691, "num_tokens": 20824.0, "step": 47 }, { "epoch": 0.016, "grad_norm": 39.789886474609375, "learning_rate": 1.0444444444444445e-05, "loss": 1.4411, "num_tokens": 21051.0, "step": 48 }, { "epoch": 0.01633333333333333, "grad_norm": 35.46992874145508, "learning_rate": 1.0666666666666667e-05, "loss": 1.1058, "num_tokens": 21313.0, "step": 49 }, { "epoch": 0.016666666666666666, "grad_norm": 25.426536560058594, "learning_rate": 1.088888888888889e-05, "loss": 0.7127, "num_tokens": 21803.0, "step": 50 }, { "epoch": 0.017, "grad_norm": 42.56973648071289, "learning_rate": 1.1111111111111113e-05, "loss": 1.4474, "num_tokens": 22066.0, "step": 51 }, { "epoch": 0.017333333333333333, "grad_norm": 46.8170280456543, "learning_rate": 1.1333333333333334e-05, "loss": 1.7022, "num_tokens": 22365.0, "step": 52 }, { "epoch": 0.017666666666666667, "grad_norm": 18.09953498840332, "learning_rate": 1.1555555555555556e-05, "loss": 0.5626, "num_tokens": 23041.0, "step": 53 }, { "epoch": 0.018, "grad_norm": 31.380340576171875, "learning_rate": 1.177777777777778e-05, "loss": 1.2924, "num_tokens": 23392.0, "step": 54 }, { "epoch": 0.018333333333333333, "grad_norm": 19.047426223754883, "learning_rate": 1.2e-05, "loss": 0.7544, "num_tokens": 24041.0, "step": 55 }, { "epoch": 0.018666666666666668, "grad_norm": 26.886062622070312, "learning_rate": 1.2222222222222224e-05, "loss": 0.928, "num_tokens": 24380.0, "step": 56 }, { "epoch": 0.019, "grad_norm": 23.94386100769043, "learning_rate": 1.2444444444444446e-05, "loss": 0.9419, "num_tokens": 24907.0, "step": 57 }, { "epoch": 0.019333333333333334, "grad_norm": 18.92233657836914, "learning_rate": 1.2666666666666667e-05, "loss": 0.7039, "num_tokens": 25568.0, "step": 58 }, { "epoch": 0.019666666666666666, "grad_norm": 19.097074508666992, "learning_rate": 1.288888888888889e-05, "loss": 0.5143, "num_tokens": 26060.0, "step": 59 }, { "epoch": 0.02, "grad_norm": 15.921392440795898, "learning_rate": 1.3111111111111113e-05, "loss": 0.5689, "num_tokens": 26734.0, "step": 60 }, { "epoch": 0.02033333333333333, "grad_norm": 27.684288024902344, "learning_rate": 1.3333333333333333e-05, "loss": 0.8092, "num_tokens": 27163.0, "step": 61 }, { "epoch": 0.020666666666666667, "grad_norm": 18.429224014282227, "learning_rate": 1.3555555555555557e-05, "loss": 0.7444, "num_tokens": 27899.0, "step": 62 }, { "epoch": 0.021, "grad_norm": 23.421669006347656, "learning_rate": 1.377777777777778e-05, "loss": 0.6896, "num_tokens": 28423.0, "step": 63 }, { "epoch": 0.021333333333333333, "grad_norm": 15.85240650177002, "learning_rate": 1.4e-05, "loss": 0.437, "num_tokens": 29104.0, "step": 64 }, { "epoch": 0.021666666666666667, "grad_norm": 30.679582595825195, "learning_rate": 1.4222222222222224e-05, "loss": 1.066, "num_tokens": 29522.0, "step": 65 }, { "epoch": 0.022, "grad_norm": 17.78363800048828, "learning_rate": 1.4444444444444446e-05, "loss": 0.5131, "num_tokens": 30076.0, "step": 66 }, { "epoch": 0.022333333333333334, "grad_norm": 40.53913497924805, "learning_rate": 1.4666666666666666e-05, "loss": 1.0862, "num_tokens": 30341.0, "step": 67 }, { "epoch": 0.02266666666666667, "grad_norm": 34.97540283203125, "learning_rate": 1.488888888888889e-05, "loss": 1.0495, "num_tokens": 30632.0, "step": 68 }, { "epoch": 0.023, "grad_norm": 29.912694931030273, "learning_rate": 1.5111111111111112e-05, "loss": 0.9427, "num_tokens": 31163.0, "step": 69 }, { "epoch": 0.023333333333333334, "grad_norm": 25.413188934326172, "learning_rate": 1.5333333333333334e-05, "loss": 0.7438, "num_tokens": 31628.0, "step": 70 }, { "epoch": 0.023666666666666666, "grad_norm": 34.44293975830078, "learning_rate": 1.555555555555556e-05, "loss": 0.9727, "num_tokens": 32034.0, "step": 71 }, { "epoch": 0.024, "grad_norm": 28.53512191772461, "learning_rate": 1.577777777777778e-05, "loss": 0.8153, "num_tokens": 32474.0, "step": 72 }, { "epoch": 0.024333333333333332, "grad_norm": 39.46715545654297, "learning_rate": 1.6000000000000003e-05, "loss": 1.1314, "num_tokens": 32780.0, "step": 73 }, { "epoch": 0.024666666666666667, "grad_norm": 36.03692626953125, "learning_rate": 1.6222222222222223e-05, "loss": 0.9333, "num_tokens": 33196.0, "step": 74 }, { "epoch": 0.025, "grad_norm": 39.39129638671875, "learning_rate": 1.6444444444444444e-05, "loss": 1.0913, "num_tokens": 33560.0, "step": 75 }, { "epoch": 0.025333333333333333, "grad_norm": 23.855283737182617, "learning_rate": 1.6666666666666667e-05, "loss": 0.629, "num_tokens": 34081.0, "step": 76 }, { "epoch": 0.025666666666666667, "grad_norm": 32.56710433959961, "learning_rate": 1.688888888888889e-05, "loss": 0.7597, "num_tokens": 34463.0, "step": 77 }, { "epoch": 0.026, "grad_norm": 37.71162796020508, "learning_rate": 1.7111111111111112e-05, "loss": 0.7529, "num_tokens": 34800.0, "step": 78 }, { "epoch": 0.026333333333333334, "grad_norm": 26.309837341308594, "learning_rate": 1.7333333333333336e-05, "loss": 0.7952, "num_tokens": 35288.0, "step": 79 }, { "epoch": 0.02666666666666667, "grad_norm": 29.76045036315918, "learning_rate": 1.7555555555555556e-05, "loss": 0.898, "num_tokens": 35833.0, "step": 80 }, { "epoch": 0.027, "grad_norm": 44.31228256225586, "learning_rate": 1.7777777777777777e-05, "loss": 0.6862, "num_tokens": 36246.0, "step": 81 }, { "epoch": 0.027333333333333334, "grad_norm": 46.8188591003418, "learning_rate": 1.8e-05, "loss": 0.8244, "num_tokens": 36643.0, "step": 82 }, { "epoch": 0.027666666666666666, "grad_norm": 25.236698150634766, "learning_rate": 1.8222222222222224e-05, "loss": 0.5379, "num_tokens": 37123.0, "step": 83 }, { "epoch": 0.028, "grad_norm": 30.14456558227539, "learning_rate": 1.8444444444444448e-05, "loss": 0.7916, "num_tokens": 37550.0, "step": 84 }, { "epoch": 0.028333333333333332, "grad_norm": 33.02702713012695, "learning_rate": 1.866666666666667e-05, "loss": 0.9451, "num_tokens": 38070.0, "step": 85 }, { "epoch": 0.028666666666666667, "grad_norm": 31.214811325073242, "learning_rate": 1.888888888888889e-05, "loss": 0.924, "num_tokens": 38489.0, "step": 86 }, { "epoch": 0.029, "grad_norm": 31.31169891357422, "learning_rate": 1.9111111111111113e-05, "loss": 0.8122, "num_tokens": 38888.0, "step": 87 }, { "epoch": 0.029333333333333333, "grad_norm": 51.78118896484375, "learning_rate": 1.9333333333333333e-05, "loss": 1.4062, "num_tokens": 39124.0, "step": 88 }, { "epoch": 0.029666666666666668, "grad_norm": 49.784629821777344, "learning_rate": 1.9555555555555557e-05, "loss": 1.4039, "num_tokens": 39357.0, "step": 89 }, { "epoch": 0.03, "grad_norm": 32.8852424621582, "learning_rate": 1.977777777777778e-05, "loss": 0.8611, "num_tokens": 39688.0, "step": 90 }, { "epoch": 0.030333333333333334, "grad_norm": 27.8829402923584, "learning_rate": 2e-05, "loss": 0.6468, "num_tokens": 40302.0, "step": 91 }, { "epoch": 0.030666666666666665, "grad_norm": 19.131120681762695, "learning_rate": 1.9993127147766325e-05, "loss": 0.3804, "num_tokens": 41073.0, "step": 92 }, { "epoch": 0.031, "grad_norm": 45.563865661621094, "learning_rate": 1.9986254295532648e-05, "loss": 0.8627, "num_tokens": 41396.0, "step": 93 }, { "epoch": 0.03133333333333333, "grad_norm": 106.09317779541016, "learning_rate": 1.997938144329897e-05, "loss": 0.7264, "num_tokens": 41719.0, "step": 94 }, { "epoch": 0.03166666666666667, "grad_norm": 35.518741607666016, "learning_rate": 1.9972508591065294e-05, "loss": 0.6709, "num_tokens": 42160.0, "step": 95 }, { "epoch": 0.032, "grad_norm": 37.055946350097656, "learning_rate": 1.9965635738831617e-05, "loss": 0.8078, "num_tokens": 42524.0, "step": 96 }, { "epoch": 0.03233333333333333, "grad_norm": 24.255197525024414, "learning_rate": 1.995876288659794e-05, "loss": 0.4606, "num_tokens": 43203.0, "step": 97 }, { "epoch": 0.03266666666666666, "grad_norm": 29.15459632873535, "learning_rate": 1.9951890034364263e-05, "loss": 0.5941, "num_tokens": 43664.0, "step": 98 }, { "epoch": 0.033, "grad_norm": 35.85024642944336, "learning_rate": 1.9945017182130586e-05, "loss": 0.8284, "num_tokens": 44173.0, "step": 99 }, { "epoch": 0.03333333333333333, "grad_norm": 38.781044006347656, "learning_rate": 1.993814432989691e-05, "loss": 0.7819, "num_tokens": 44433.0, "step": 100 }, { "epoch": 0.033666666666666664, "grad_norm": 41.58073425292969, "learning_rate": 1.9931271477663232e-05, "loss": 0.7619, "num_tokens": 44789.0, "step": 101 }, { "epoch": 0.034, "grad_norm": 38.9767951965332, "learning_rate": 1.9924398625429555e-05, "loss": 0.63, "num_tokens": 45227.0, "step": 102 }, { "epoch": 0.034333333333333334, "grad_norm": 29.111162185668945, "learning_rate": 1.9917525773195878e-05, "loss": 0.5334, "num_tokens": 45706.0, "step": 103 }, { "epoch": 0.034666666666666665, "grad_norm": 71.87579345703125, "learning_rate": 1.99106529209622e-05, "loss": 0.8936, "num_tokens": 45889.0, "step": 104 }, { "epoch": 0.035, "grad_norm": 41.190216064453125, "learning_rate": 1.9903780068728524e-05, "loss": 0.6939, "num_tokens": 46259.0, "step": 105 }, { "epoch": 0.035333333333333335, "grad_norm": 26.37325096130371, "learning_rate": 1.9896907216494847e-05, "loss": 0.3244, "num_tokens": 46711.0, "step": 106 }, { "epoch": 0.035666666666666666, "grad_norm": 46.37792205810547, "learning_rate": 1.989003436426117e-05, "loss": 0.6545, "num_tokens": 47084.0, "step": 107 }, { "epoch": 0.036, "grad_norm": 51.581214904785156, "learning_rate": 1.9883161512027493e-05, "loss": 0.9856, "num_tokens": 47335.0, "step": 108 }, { "epoch": 0.036333333333333336, "grad_norm": 39.16628646850586, "learning_rate": 1.9876288659793816e-05, "loss": 0.5802, "num_tokens": 47700.0, "step": 109 }, { "epoch": 0.03666666666666667, "grad_norm": 49.509674072265625, "learning_rate": 1.986941580756014e-05, "loss": 0.6792, "num_tokens": 48241.0, "step": 110 }, { "epoch": 0.037, "grad_norm": 31.066896438598633, "learning_rate": 1.9862542955326462e-05, "loss": 0.3961, "num_tokens": 48883.0, "step": 111 }, { "epoch": 0.037333333333333336, "grad_norm": 45.2198371887207, "learning_rate": 1.9855670103092785e-05, "loss": 0.6237, "num_tokens": 49199.0, "step": 112 }, { "epoch": 0.03766666666666667, "grad_norm": 36.31977462768555, "learning_rate": 1.9848797250859108e-05, "loss": 0.5475, "num_tokens": 49563.0, "step": 113 }, { "epoch": 0.038, "grad_norm": 53.55656051635742, "learning_rate": 1.984192439862543e-05, "loss": 0.759, "num_tokens": 49800.0, "step": 114 }, { "epoch": 0.03833333333333333, "grad_norm": 59.153564453125, "learning_rate": 1.9835051546391754e-05, "loss": 0.8572, "num_tokens": 50062.0, "step": 115 }, { "epoch": 0.03866666666666667, "grad_norm": 44.873512268066406, "learning_rate": 1.9828178694158077e-05, "loss": 0.7592, "num_tokens": 50448.0, "step": 116 }, { "epoch": 0.039, "grad_norm": 28.518779754638672, "learning_rate": 1.98213058419244e-05, "loss": 0.5324, "num_tokens": 51003.0, "step": 117 }, { "epoch": 0.03933333333333333, "grad_norm": 31.778804779052734, "learning_rate": 1.9814432989690723e-05, "loss": 0.7501, "num_tokens": 51402.0, "step": 118 }, { "epoch": 0.03966666666666667, "grad_norm": 45.377174377441406, "learning_rate": 1.9807560137457046e-05, "loss": 0.7268, "num_tokens": 51830.0, "step": 119 }, { "epoch": 0.04, "grad_norm": 61.660404205322266, "learning_rate": 1.980068728522337e-05, "loss": 1.104, "num_tokens": 52072.0, "step": 120 }, { "epoch": 0.04033333333333333, "grad_norm": 56.84831619262695, "learning_rate": 1.9793814432989692e-05, "loss": 0.7133, "num_tokens": 52525.0, "step": 121 }, { "epoch": 0.04066666666666666, "grad_norm": 48.0130615234375, "learning_rate": 1.9786941580756015e-05, "loss": 0.777, "num_tokens": 52907.0, "step": 122 }, { "epoch": 0.041, "grad_norm": 31.287490844726562, "learning_rate": 1.9780068728522338e-05, "loss": 0.4348, "num_tokens": 53403.0, "step": 123 }, { "epoch": 0.04133333333333333, "grad_norm": 40.65329360961914, "learning_rate": 1.977319587628866e-05, "loss": 0.4505, "num_tokens": 53738.0, "step": 124 }, { "epoch": 0.041666666666666664, "grad_norm": 46.760494232177734, "learning_rate": 1.9766323024054984e-05, "loss": 0.7291, "num_tokens": 54053.0, "step": 125 }, { "epoch": 0.042, "grad_norm": 37.59110641479492, "learning_rate": 1.9759450171821307e-05, "loss": 0.6041, "num_tokens": 54430.0, "step": 126 }, { "epoch": 0.042333333333333334, "grad_norm": 25.520221710205078, "learning_rate": 1.975257731958763e-05, "loss": 0.4191, "num_tokens": 54914.0, "step": 127 }, { "epoch": 0.042666666666666665, "grad_norm": 46.34235382080078, "learning_rate": 1.9745704467353953e-05, "loss": 0.7747, "num_tokens": 55220.0, "step": 128 }, { "epoch": 0.043, "grad_norm": 27.52751922607422, "learning_rate": 1.9738831615120276e-05, "loss": 0.4035, "num_tokens": 55750.0, "step": 129 }, { "epoch": 0.043333333333333335, "grad_norm": 23.122865676879883, "learning_rate": 1.97319587628866e-05, "loss": 0.5519, "num_tokens": 56567.0, "step": 130 }, { "epoch": 0.043666666666666666, "grad_norm": 39.1663818359375, "learning_rate": 1.9725085910652922e-05, "loss": 0.6899, "num_tokens": 57023.0, "step": 131 }, { "epoch": 0.044, "grad_norm": 59.09794616699219, "learning_rate": 1.9718213058419245e-05, "loss": 0.8583, "num_tokens": 57323.0, "step": 132 }, { "epoch": 0.044333333333333336, "grad_norm": 49.28044891357422, "learning_rate": 1.9711340206185568e-05, "loss": 0.8628, "num_tokens": 57607.0, "step": 133 }, { "epoch": 0.04466666666666667, "grad_norm": 32.314552307128906, "learning_rate": 1.9704467353951894e-05, "loss": 0.5154, "num_tokens": 57967.0, "step": 134 }, { "epoch": 0.045, "grad_norm": 60.111358642578125, "learning_rate": 1.9697594501718217e-05, "loss": 0.9745, "num_tokens": 58165.0, "step": 135 }, { "epoch": 0.04533333333333334, "grad_norm": 41.377479553222656, "learning_rate": 1.969072164948454e-05, "loss": 0.572, "num_tokens": 58459.0, "step": 136 }, { "epoch": 0.04566666666666667, "grad_norm": 22.802507400512695, "learning_rate": 1.968384879725086e-05, "loss": 0.3414, "num_tokens": 59214.0, "step": 137 }, { "epoch": 0.046, "grad_norm": 28.913257598876953, "learning_rate": 1.9676975945017183e-05, "loss": 0.4311, "num_tokens": 59738.0, "step": 138 }, { "epoch": 0.04633333333333333, "grad_norm": 38.25550079345703, "learning_rate": 1.9670103092783506e-05, "loss": 0.5357, "num_tokens": 60244.0, "step": 139 }, { "epoch": 0.04666666666666667, "grad_norm": 52.360877990722656, "learning_rate": 1.966323024054983e-05, "loss": 0.6839, "num_tokens": 60544.0, "step": 140 }, { "epoch": 0.047, "grad_norm": 43.630741119384766, "learning_rate": 1.9656357388316152e-05, "loss": 0.5714, "num_tokens": 60950.0, "step": 141 }, { "epoch": 0.04733333333333333, "grad_norm": 89.2325668334961, "learning_rate": 1.9649484536082475e-05, "loss": 0.9632, "num_tokens": 61260.0, "step": 142 }, { "epoch": 0.04766666666666667, "grad_norm": 39.44340515136719, "learning_rate": 1.9642611683848798e-05, "loss": 0.4943, "num_tokens": 61649.0, "step": 143 }, { "epoch": 0.048, "grad_norm": 48.94532775878906, "learning_rate": 1.963573883161512e-05, "loss": 0.5266, "num_tokens": 61950.0, "step": 144 }, { "epoch": 0.04833333333333333, "grad_norm": 27.165708541870117, "learning_rate": 1.9628865979381444e-05, "loss": 0.3441, "num_tokens": 62498.0, "step": 145 }, { "epoch": 0.048666666666666664, "grad_norm": 29.748661041259766, "learning_rate": 1.9621993127147767e-05, "loss": 0.3737, "num_tokens": 62947.0, "step": 146 }, { "epoch": 0.049, "grad_norm": 57.51644515991211, "learning_rate": 1.961512027491409e-05, "loss": 1.0173, "num_tokens": 63245.0, "step": 147 }, { "epoch": 0.04933333333333333, "grad_norm": 44.324642181396484, "learning_rate": 1.9608247422680413e-05, "loss": 0.7786, "num_tokens": 63558.0, "step": 148 }, { "epoch": 0.049666666666666665, "grad_norm": 33.15813446044922, "learning_rate": 1.9601374570446736e-05, "loss": 0.7298, "num_tokens": 63901.0, "step": 149 }, { "epoch": 0.05, "grad_norm": 26.945276260375977, "learning_rate": 1.959450171821306e-05, "loss": 0.423, "num_tokens": 64302.0, "step": 150 }, { "epoch": 0.050333333333333334, "grad_norm": 34.425323486328125, "learning_rate": 1.9587628865979382e-05, "loss": 0.5306, "num_tokens": 64607.0, "step": 151 }, { "epoch": 0.050666666666666665, "grad_norm": 35.405426025390625, "learning_rate": 1.9580756013745705e-05, "loss": 0.8008, "num_tokens": 64979.0, "step": 152 }, { "epoch": 0.051, "grad_norm": 24.993913650512695, "learning_rate": 1.9573883161512028e-05, "loss": 0.3944, "num_tokens": 65449.0, "step": 153 }, { "epoch": 0.051333333333333335, "grad_norm": 32.408164978027344, "learning_rate": 1.956701030927835e-05, "loss": 0.4516, "num_tokens": 65931.0, "step": 154 }, { "epoch": 0.051666666666666666, "grad_norm": 43.65980529785156, "learning_rate": 1.9560137457044674e-05, "loss": 0.5932, "num_tokens": 66248.0, "step": 155 }, { "epoch": 0.052, "grad_norm": 33.937294006347656, "learning_rate": 1.9553264604810997e-05, "loss": 0.5121, "num_tokens": 66657.0, "step": 156 }, { "epoch": 0.052333333333333336, "grad_norm": 68.75544738769531, "learning_rate": 1.954639175257732e-05, "loss": 0.9235, "num_tokens": 67022.0, "step": 157 }, { "epoch": 0.05266666666666667, "grad_norm": 41.165531158447266, "learning_rate": 1.9539518900343643e-05, "loss": 0.5203, "num_tokens": 67350.0, "step": 158 }, { "epoch": 0.053, "grad_norm": 54.83644485473633, "learning_rate": 1.9532646048109966e-05, "loss": 1.0963, "num_tokens": 67643.0, "step": 159 }, { "epoch": 0.05333333333333334, "grad_norm": 29.313854217529297, "learning_rate": 1.952577319587629e-05, "loss": 0.4767, "num_tokens": 68025.0, "step": 160 }, { "epoch": 0.05366666666666667, "grad_norm": 35.819583892822266, "learning_rate": 1.9518900343642612e-05, "loss": 0.3438, "num_tokens": 68520.0, "step": 161 }, { "epoch": 0.054, "grad_norm": 29.85780906677246, "learning_rate": 1.9512027491408935e-05, "loss": 0.3983, "num_tokens": 68991.0, "step": 162 }, { "epoch": 0.05433333333333333, "grad_norm": 29.019607543945312, "learning_rate": 1.9505154639175258e-05, "loss": 0.2906, "num_tokens": 69397.0, "step": 163 }, { "epoch": 0.05466666666666667, "grad_norm": 41.16508483886719, "learning_rate": 1.949828178694158e-05, "loss": 0.6767, "num_tokens": 69677.0, "step": 164 }, { "epoch": 0.055, "grad_norm": 39.70085525512695, "learning_rate": 1.9491408934707904e-05, "loss": 0.6332, "num_tokens": 70147.0, "step": 165 }, { "epoch": 0.05533333333333333, "grad_norm": 53.46763610839844, "learning_rate": 1.9484536082474227e-05, "loss": 0.5392, "num_tokens": 70612.0, "step": 166 }, { "epoch": 0.05566666666666667, "grad_norm": 35.790184020996094, "learning_rate": 1.947766323024055e-05, "loss": 0.6766, "num_tokens": 70969.0, "step": 167 }, { "epoch": 0.056, "grad_norm": 39.647796630859375, "learning_rate": 1.9470790378006873e-05, "loss": 0.3815, "num_tokens": 71323.0, "step": 168 }, { "epoch": 0.05633333333333333, "grad_norm": 48.281253814697266, "learning_rate": 1.9463917525773196e-05, "loss": 0.4961, "num_tokens": 71700.0, "step": 169 }, { "epoch": 0.056666666666666664, "grad_norm": 51.821678161621094, "learning_rate": 1.945704467353952e-05, "loss": 0.5283, "num_tokens": 71949.0, "step": 170 }, { "epoch": 0.057, "grad_norm": 29.05267333984375, "learning_rate": 1.9450171821305842e-05, "loss": 0.264, "num_tokens": 72519.0, "step": 171 }, { "epoch": 0.05733333333333333, "grad_norm": 61.313987731933594, "learning_rate": 1.9443298969072165e-05, "loss": 0.7374, "num_tokens": 72913.0, "step": 172 }, { "epoch": 0.057666666666666665, "grad_norm": 26.462854385375977, "learning_rate": 1.943642611683849e-05, "loss": 0.2636, "num_tokens": 73323.0, "step": 173 }, { "epoch": 0.058, "grad_norm": 50.9460334777832, "learning_rate": 1.942955326460481e-05, "loss": 0.3442, "num_tokens": 73620.0, "step": 174 }, { "epoch": 0.058333333333333334, "grad_norm": 23.931690216064453, "learning_rate": 1.9422680412371134e-05, "loss": 0.3902, "num_tokens": 74151.0, "step": 175 }, { "epoch": 0.058666666666666666, "grad_norm": 21.215919494628906, "learning_rate": 1.9415807560137457e-05, "loss": 0.3633, "num_tokens": 74805.0, "step": 176 }, { "epoch": 0.059, "grad_norm": 60.89375305175781, "learning_rate": 1.940893470790378e-05, "loss": 0.6018, "num_tokens": 75195.0, "step": 177 }, { "epoch": 0.059333333333333335, "grad_norm": 42.124778747558594, "learning_rate": 1.9402061855670103e-05, "loss": 0.4916, "num_tokens": 75548.0, "step": 178 }, { "epoch": 0.059666666666666666, "grad_norm": 33.59177017211914, "learning_rate": 1.9395189003436426e-05, "loss": 0.39, "num_tokens": 76000.0, "step": 179 }, { "epoch": 0.06, "grad_norm": 51.772823333740234, "learning_rate": 1.938831615120275e-05, "loss": 0.8052, "num_tokens": 76349.0, "step": 180 }, { "epoch": 0.060333333333333336, "grad_norm": 45.656394958496094, "learning_rate": 1.9381443298969072e-05, "loss": 0.3082, "num_tokens": 76662.0, "step": 181 }, { "epoch": 0.06066666666666667, "grad_norm": 41.994239807128906, "learning_rate": 1.9374570446735395e-05, "loss": 0.6735, "num_tokens": 76921.0, "step": 182 }, { "epoch": 0.061, "grad_norm": 35.1087532043457, "learning_rate": 1.936769759450172e-05, "loss": 0.7214, "num_tokens": 77295.0, "step": 183 }, { "epoch": 0.06133333333333333, "grad_norm": 24.77341651916504, "learning_rate": 1.936082474226804e-05, "loss": 0.2811, "num_tokens": 77845.0, "step": 184 }, { "epoch": 0.06166666666666667, "grad_norm": 38.481082916259766, "learning_rate": 1.9353951890034364e-05, "loss": 0.5725, "num_tokens": 78171.0, "step": 185 }, { "epoch": 0.062, "grad_norm": 67.54834747314453, "learning_rate": 1.9347079037800687e-05, "loss": 0.5216, "num_tokens": 78442.0, "step": 186 }, { "epoch": 0.06233333333333333, "grad_norm": 27.833383560180664, "learning_rate": 1.934020618556701e-05, "loss": 0.3439, "num_tokens": 79093.0, "step": 187 }, { "epoch": 0.06266666666666666, "grad_norm": 39.93423080444336, "learning_rate": 1.9333333333333333e-05, "loss": 0.5933, "num_tokens": 79497.0, "step": 188 }, { "epoch": 0.063, "grad_norm": 51.19853210449219, "learning_rate": 1.9326460481099656e-05, "loss": 0.4533, "num_tokens": 79866.0, "step": 189 }, { "epoch": 0.06333333333333334, "grad_norm": 25.23544692993164, "learning_rate": 1.9319587628865983e-05, "loss": 0.2993, "num_tokens": 80306.0, "step": 190 }, { "epoch": 0.06366666666666666, "grad_norm": 35.64771270751953, "learning_rate": 1.9312714776632306e-05, "loss": 0.5268, "num_tokens": 80648.0, "step": 191 }, { "epoch": 0.064, "grad_norm": 28.292673110961914, "learning_rate": 1.930584192439863e-05, "loss": 0.4779, "num_tokens": 81402.0, "step": 192 }, { "epoch": 0.06433333333333334, "grad_norm": 74.62162017822266, "learning_rate": 1.9298969072164952e-05, "loss": 0.6907, "num_tokens": 81701.0, "step": 193 }, { "epoch": 0.06466666666666666, "grad_norm": 27.109350204467773, "learning_rate": 1.9292096219931275e-05, "loss": 0.5587, "num_tokens": 82255.0, "step": 194 }, { "epoch": 0.065, "grad_norm": 33.1630859375, "learning_rate": 1.9285223367697598e-05, "loss": 0.6041, "num_tokens": 82518.0, "step": 195 }, { "epoch": 0.06533333333333333, "grad_norm": 52.33440399169922, "learning_rate": 1.927835051546392e-05, "loss": 0.6438, "num_tokens": 82800.0, "step": 196 }, { "epoch": 0.06566666666666666, "grad_norm": 65.91926574707031, "learning_rate": 1.9271477663230244e-05, "loss": 0.678, "num_tokens": 83132.0, "step": 197 }, { "epoch": 0.066, "grad_norm": 30.52640151977539, "learning_rate": 1.9264604810996567e-05, "loss": 0.3446, "num_tokens": 83695.0, "step": 198 }, { "epoch": 0.06633333333333333, "grad_norm": 38.359169006347656, "learning_rate": 1.925773195876289e-05, "loss": 0.5499, "num_tokens": 84086.0, "step": 199 }, { "epoch": 0.06666666666666667, "grad_norm": 51.04586410522461, "learning_rate": 1.9250859106529213e-05, "loss": 0.3828, "num_tokens": 84686.0, "step": 200 }, { "epoch": 0.067, "grad_norm": 34.816532135009766, "learning_rate": 1.9243986254295536e-05, "loss": 0.505, "num_tokens": 84979.0, "step": 201 }, { "epoch": 0.06733333333333333, "grad_norm": 18.85448455810547, "learning_rate": 1.923711340206186e-05, "loss": 0.2021, "num_tokens": 85432.0, "step": 202 }, { "epoch": 0.06766666666666667, "grad_norm": 42.22898864746094, "learning_rate": 1.9230240549828182e-05, "loss": 0.3962, "num_tokens": 85868.0, "step": 203 }, { "epoch": 0.068, "grad_norm": 39.08232498168945, "learning_rate": 1.9223367697594505e-05, "loss": 0.2846, "num_tokens": 86170.0, "step": 204 }, { "epoch": 0.06833333333333333, "grad_norm": 28.131832122802734, "learning_rate": 1.9216494845360828e-05, "loss": 0.442, "num_tokens": 86632.0, "step": 205 }, { "epoch": 0.06866666666666667, "grad_norm": 19.677894592285156, "learning_rate": 1.920962199312715e-05, "loss": 0.2671, "num_tokens": 87348.0, "step": 206 }, { "epoch": 0.069, "grad_norm": 31.017032623291016, "learning_rate": 1.9202749140893474e-05, "loss": 0.4425, "num_tokens": 87933.0, "step": 207 }, { "epoch": 0.06933333333333333, "grad_norm": 35.77029037475586, "learning_rate": 1.9195876288659797e-05, "loss": 0.3192, "num_tokens": 88396.0, "step": 208 }, { "epoch": 0.06966666666666667, "grad_norm": 23.739906311035156, "learning_rate": 1.918900343642612e-05, "loss": 0.4411, "num_tokens": 88983.0, "step": 209 }, { "epoch": 0.07, "grad_norm": 31.48282814025879, "learning_rate": 1.9182130584192443e-05, "loss": 0.5169, "num_tokens": 89334.0, "step": 210 }, { "epoch": 0.07033333333333333, "grad_norm": 24.556678771972656, "learning_rate": 1.9175257731958766e-05, "loss": 0.39, "num_tokens": 89777.0, "step": 211 }, { "epoch": 0.07066666666666667, "grad_norm": 68.45114135742188, "learning_rate": 1.916838487972509e-05, "loss": 0.5197, "num_tokens": 90109.0, "step": 212 }, { "epoch": 0.071, "grad_norm": 34.41621398925781, "learning_rate": 1.9161512027491412e-05, "loss": 0.6847, "num_tokens": 90410.0, "step": 213 }, { "epoch": 0.07133333333333333, "grad_norm": 22.215696334838867, "learning_rate": 1.9154639175257735e-05, "loss": 0.3468, "num_tokens": 90769.0, "step": 214 }, { "epoch": 0.07166666666666667, "grad_norm": 52.59676742553711, "learning_rate": 1.9147766323024058e-05, "loss": 0.5198, "num_tokens": 91092.0, "step": 215 }, { "epoch": 0.072, "grad_norm": 55.20315170288086, "learning_rate": 1.914089347079038e-05, "loss": 0.3788, "num_tokens": 91513.0, "step": 216 }, { "epoch": 0.07233333333333333, "grad_norm": 36.25192642211914, "learning_rate": 1.9134020618556704e-05, "loss": 0.2284, "num_tokens": 92108.0, "step": 217 }, { "epoch": 0.07266666666666667, "grad_norm": 44.73360824584961, "learning_rate": 1.9127147766323027e-05, "loss": 0.4676, "num_tokens": 92437.0, "step": 218 }, { "epoch": 0.073, "grad_norm": 23.987049102783203, "learning_rate": 1.912027491408935e-05, "loss": 0.3399, "num_tokens": 93037.0, "step": 219 }, { "epoch": 0.07333333333333333, "grad_norm": 17.397918701171875, "learning_rate": 1.9113402061855673e-05, "loss": 0.4112, "num_tokens": 93954.0, "step": 220 }, { "epoch": 0.07366666666666667, "grad_norm": 28.199684143066406, "learning_rate": 1.9106529209621996e-05, "loss": 0.4351, "num_tokens": 94304.0, "step": 221 }, { "epoch": 0.074, "grad_norm": 30.274017333984375, "learning_rate": 1.909965635738832e-05, "loss": 0.5721, "num_tokens": 94811.0, "step": 222 }, { "epoch": 0.07433333333333333, "grad_norm": 25.99551010131836, "learning_rate": 1.9092783505154642e-05, "loss": 0.383, "num_tokens": 95218.0, "step": 223 }, { "epoch": 0.07466666666666667, "grad_norm": 40.39858627319336, "learning_rate": 1.9085910652920965e-05, "loss": 0.6362, "num_tokens": 95466.0, "step": 224 }, { "epoch": 0.075, "grad_norm": 38.4858512878418, "learning_rate": 1.9079037800687288e-05, "loss": 0.6524, "num_tokens": 95810.0, "step": 225 }, { "epoch": 0.07533333333333334, "grad_norm": 28.182748794555664, "learning_rate": 1.907216494845361e-05, "loss": 0.3862, "num_tokens": 96222.0, "step": 226 }, { "epoch": 0.07566666666666666, "grad_norm": 53.8346061706543, "learning_rate": 1.9065292096219934e-05, "loss": 0.7188, "num_tokens": 96492.0, "step": 227 }, { "epoch": 0.076, "grad_norm": 37.86222839355469, "learning_rate": 1.9058419243986254e-05, "loss": 0.5718, "num_tokens": 96933.0, "step": 228 }, { "epoch": 0.07633333333333334, "grad_norm": 25.68267822265625, "learning_rate": 1.9051546391752577e-05, "loss": 0.3106, "num_tokens": 97343.0, "step": 229 }, { "epoch": 0.07666666666666666, "grad_norm": 22.319507598876953, "learning_rate": 1.90446735395189e-05, "loss": 0.2089, "num_tokens": 97975.0, "step": 230 }, { "epoch": 0.077, "grad_norm": 74.07844543457031, "learning_rate": 1.9037800687285223e-05, "loss": 0.4634, "num_tokens": 98227.0, "step": 231 }, { "epoch": 0.07733333333333334, "grad_norm": 34.40934753417969, "learning_rate": 1.9030927835051546e-05, "loss": 0.3483, "num_tokens": 98640.0, "step": 232 }, { "epoch": 0.07766666666666666, "grad_norm": 50.5785026550293, "learning_rate": 1.902405498281787e-05, "loss": 0.4364, "num_tokens": 99092.0, "step": 233 }, { "epoch": 0.078, "grad_norm": 26.721572875976562, "learning_rate": 1.9017182130584192e-05, "loss": 0.3061, "num_tokens": 99551.0, "step": 234 }, { "epoch": 0.07833333333333334, "grad_norm": 32.01909255981445, "learning_rate": 1.9010309278350515e-05, "loss": 0.4861, "num_tokens": 100033.0, "step": 235 }, { "epoch": 0.07866666666666666, "grad_norm": 33.3321418762207, "learning_rate": 1.9003436426116838e-05, "loss": 0.317, "num_tokens": 100407.0, "step": 236 }, { "epoch": 0.079, "grad_norm": 32.01106643676758, "learning_rate": 1.899656357388316e-05, "loss": 0.5347, "num_tokens": 100769.0, "step": 237 }, { "epoch": 0.07933333333333334, "grad_norm": 28.268598556518555, "learning_rate": 1.8989690721649484e-05, "loss": 0.5645, "num_tokens": 101194.0, "step": 238 }, { "epoch": 0.07966666666666666, "grad_norm": 39.21891403198242, "learning_rate": 1.8982817869415807e-05, "loss": 0.3107, "num_tokens": 101699.0, "step": 239 }, { "epoch": 0.08, "grad_norm": 25.772802352905273, "learning_rate": 1.897594501718213e-05, "loss": 0.3832, "num_tokens": 102110.0, "step": 240 }, { "epoch": 0.08033333333333334, "grad_norm": 36.86875534057617, "learning_rate": 1.8969072164948453e-05, "loss": 0.3777, "num_tokens": 102595.0, "step": 241 }, { "epoch": 0.08066666666666666, "grad_norm": 23.152475357055664, "learning_rate": 1.8962199312714776e-05, "loss": 0.4279, "num_tokens": 103054.0, "step": 242 }, { "epoch": 0.081, "grad_norm": 83.08087158203125, "learning_rate": 1.89553264604811e-05, "loss": 0.628, "num_tokens": 103348.0, "step": 243 }, { "epoch": 0.08133333333333333, "grad_norm": 20.99436378479004, "learning_rate": 1.8948453608247422e-05, "loss": 0.374, "num_tokens": 103921.0, "step": 244 }, { "epoch": 0.08166666666666667, "grad_norm": 24.986034393310547, "learning_rate": 1.8941580756013745e-05, "loss": 0.3785, "num_tokens": 104337.0, "step": 245 }, { "epoch": 0.082, "grad_norm": 30.015289306640625, "learning_rate": 1.8934707903780068e-05, "loss": 0.2752, "num_tokens": 105018.0, "step": 246 }, { "epoch": 0.08233333333333333, "grad_norm": 43.70608139038086, "learning_rate": 1.8927835051546394e-05, "loss": 0.8207, "num_tokens": 105226.0, "step": 247 }, { "epoch": 0.08266666666666667, "grad_norm": 36.09286880493164, "learning_rate": 1.8920962199312717e-05, "loss": 0.6912, "num_tokens": 105504.0, "step": 248 }, { "epoch": 0.083, "grad_norm": 29.150175094604492, "learning_rate": 1.891408934707904e-05, "loss": 0.5351, "num_tokens": 105974.0, "step": 249 }, { "epoch": 0.08333333333333333, "grad_norm": 43.00098419189453, "learning_rate": 1.8907216494845363e-05, "loss": 0.4506, "num_tokens": 106303.0, "step": 250 }, { "epoch": 0.08366666666666667, "grad_norm": 30.279096603393555, "learning_rate": 1.8900343642611686e-05, "loss": 0.5209, "num_tokens": 106653.0, "step": 251 }, { "epoch": 0.084, "grad_norm": 38.54591369628906, "learning_rate": 1.889347079037801e-05, "loss": 0.5705, "num_tokens": 106905.0, "step": 252 }, { "epoch": 0.08433333333333333, "grad_norm": 21.60423469543457, "learning_rate": 1.8886597938144332e-05, "loss": 0.3229, "num_tokens": 107296.0, "step": 253 }, { "epoch": 0.08466666666666667, "grad_norm": 39.48002243041992, "learning_rate": 1.8879725085910655e-05, "loss": 0.5134, "num_tokens": 107611.0, "step": 254 }, { "epoch": 0.085, "grad_norm": 37.47301483154297, "learning_rate": 1.887285223367698e-05, "loss": 0.3487, "num_tokens": 108129.0, "step": 255 }, { "epoch": 0.08533333333333333, "grad_norm": 44.64371109008789, "learning_rate": 1.88659793814433e-05, "loss": 0.4894, "num_tokens": 108553.0, "step": 256 }, { "epoch": 0.08566666666666667, "grad_norm": 22.639005661010742, "learning_rate": 1.8859106529209624e-05, "loss": 0.4092, "num_tokens": 109095.0, "step": 257 }, { "epoch": 0.086, "grad_norm": 37.285709381103516, "learning_rate": 1.8852233676975947e-05, "loss": 0.5502, "num_tokens": 109388.0, "step": 258 }, { "epoch": 0.08633333333333333, "grad_norm": 36.79397964477539, "learning_rate": 1.884536082474227e-05, "loss": 0.4467, "num_tokens": 109700.0, "step": 259 }, { "epoch": 0.08666666666666667, "grad_norm": 26.946632385253906, "learning_rate": 1.8838487972508593e-05, "loss": 0.6545, "num_tokens": 110127.0, "step": 260 }, { "epoch": 0.087, "grad_norm": 14.389484405517578, "learning_rate": 1.8831615120274916e-05, "loss": 0.1886, "num_tokens": 110726.0, "step": 261 }, { "epoch": 0.08733333333333333, "grad_norm": 31.17886734008789, "learning_rate": 1.882474226804124e-05, "loss": 0.5519, "num_tokens": 111009.0, "step": 262 }, { "epoch": 0.08766666666666667, "grad_norm": 33.768951416015625, "learning_rate": 1.8817869415807562e-05, "loss": 0.4186, "num_tokens": 111279.0, "step": 263 }, { "epoch": 0.088, "grad_norm": 49.355037689208984, "learning_rate": 1.8810996563573885e-05, "loss": 0.4368, "num_tokens": 111651.0, "step": 264 }, { "epoch": 0.08833333333333333, "grad_norm": 31.915544509887695, "learning_rate": 1.880412371134021e-05, "loss": 0.4092, "num_tokens": 112005.0, "step": 265 }, { "epoch": 0.08866666666666667, "grad_norm": 14.624432563781738, "learning_rate": 1.879725085910653e-05, "loss": 0.2399, "num_tokens": 112968.0, "step": 266 }, { "epoch": 0.089, "grad_norm": 58.64082717895508, "learning_rate": 1.8790378006872854e-05, "loss": 0.6935, "num_tokens": 113261.0, "step": 267 }, { "epoch": 0.08933333333333333, "grad_norm": 40.38248062133789, "learning_rate": 1.8783505154639178e-05, "loss": 0.5838, "num_tokens": 113637.0, "step": 268 }, { "epoch": 0.08966666666666667, "grad_norm": 29.96736717224121, "learning_rate": 1.87766323024055e-05, "loss": 0.4379, "num_tokens": 114342.0, "step": 269 }, { "epoch": 0.09, "grad_norm": 31.109102249145508, "learning_rate": 1.8769759450171824e-05, "loss": 0.3323, "num_tokens": 114721.0, "step": 270 }, { "epoch": 0.09033333333333333, "grad_norm": 22.108875274658203, "learning_rate": 1.8762886597938147e-05, "loss": 0.4789, "num_tokens": 115392.0, "step": 271 }, { "epoch": 0.09066666666666667, "grad_norm": 37.41347122192383, "learning_rate": 1.875601374570447e-05, "loss": 0.421, "num_tokens": 115761.0, "step": 272 }, { "epoch": 0.091, "grad_norm": 67.70362091064453, "learning_rate": 1.8749140893470793e-05, "loss": 0.3343, "num_tokens": 116187.0, "step": 273 }, { "epoch": 0.09133333333333334, "grad_norm": 22.19578742980957, "learning_rate": 1.8742268041237116e-05, "loss": 0.2968, "num_tokens": 116798.0, "step": 274 }, { "epoch": 0.09166666666666666, "grad_norm": 45.598323822021484, "learning_rate": 1.873539518900344e-05, "loss": 0.6074, "num_tokens": 117189.0, "step": 275 }, { "epoch": 0.092, "grad_norm": 39.78677749633789, "learning_rate": 1.872852233676976e-05, "loss": 0.4752, "num_tokens": 117544.0, "step": 276 }, { "epoch": 0.09233333333333334, "grad_norm": 47.94905090332031, "learning_rate": 1.8721649484536085e-05, "loss": 0.5899, "num_tokens": 117908.0, "step": 277 }, { "epoch": 0.09266666666666666, "grad_norm": 17.733047485351562, "learning_rate": 1.8714776632302408e-05, "loss": 0.3496, "num_tokens": 118415.0, "step": 278 }, { "epoch": 0.093, "grad_norm": 59.77836990356445, "learning_rate": 1.870790378006873e-05, "loss": 0.5578, "num_tokens": 118843.0, "step": 279 }, { "epoch": 0.09333333333333334, "grad_norm": 18.515100479125977, "learning_rate": 1.8701030927835054e-05, "loss": 0.3097, "num_tokens": 119245.0, "step": 280 }, { "epoch": 0.09366666666666666, "grad_norm": 44.32679748535156, "learning_rate": 1.8694158075601377e-05, "loss": 0.4466, "num_tokens": 119682.0, "step": 281 }, { "epoch": 0.094, "grad_norm": 31.972997665405273, "learning_rate": 1.86872852233677e-05, "loss": 0.474, "num_tokens": 119952.0, "step": 282 }, { "epoch": 0.09433333333333334, "grad_norm": 24.964447021484375, "learning_rate": 1.8680412371134023e-05, "loss": 0.2599, "num_tokens": 120327.0, "step": 283 }, { "epoch": 0.09466666666666666, "grad_norm": 24.656137466430664, "learning_rate": 1.8673539518900346e-05, "loss": 0.4599, "num_tokens": 120794.0, "step": 284 }, { "epoch": 0.095, "grad_norm": 21.277694702148438, "learning_rate": 1.866666666666667e-05, "loss": 0.2993, "num_tokens": 121193.0, "step": 285 }, { "epoch": 0.09533333333333334, "grad_norm": 20.721065521240234, "learning_rate": 1.865979381443299e-05, "loss": 0.2524, "num_tokens": 121967.0, "step": 286 }, { "epoch": 0.09566666666666666, "grad_norm": 27.646615982055664, "learning_rate": 1.8652920962199315e-05, "loss": 0.2975, "num_tokens": 122522.0, "step": 287 }, { "epoch": 0.096, "grad_norm": 34.89924240112305, "learning_rate": 1.8646048109965638e-05, "loss": 0.329, "num_tokens": 123003.0, "step": 288 }, { "epoch": 0.09633333333333334, "grad_norm": 30.71653175354004, "learning_rate": 1.863917525773196e-05, "loss": 0.4456, "num_tokens": 123504.0, "step": 289 }, { "epoch": 0.09666666666666666, "grad_norm": 22.233198165893555, "learning_rate": 1.8632302405498284e-05, "loss": 0.3796, "num_tokens": 123908.0, "step": 290 }, { "epoch": 0.097, "grad_norm": 24.301563262939453, "learning_rate": 1.8625429553264607e-05, "loss": 0.2749, "num_tokens": 124334.0, "step": 291 }, { "epoch": 0.09733333333333333, "grad_norm": 61.01966857910156, "learning_rate": 1.861855670103093e-05, "loss": 0.5442, "num_tokens": 124631.0, "step": 292 }, { "epoch": 0.09766666666666667, "grad_norm": 25.823530197143555, "learning_rate": 1.8611683848797253e-05, "loss": 0.3935, "num_tokens": 125019.0, "step": 293 }, { "epoch": 0.098, "grad_norm": 22.05927276611328, "learning_rate": 1.8604810996563576e-05, "loss": 0.2441, "num_tokens": 125401.0, "step": 294 }, { "epoch": 0.09833333333333333, "grad_norm": 51.44224166870117, "learning_rate": 1.85979381443299e-05, "loss": 0.5708, "num_tokens": 125654.0, "step": 295 }, { "epoch": 0.09866666666666667, "grad_norm": 43.19953536987305, "learning_rate": 1.8591065292096222e-05, "loss": 0.4156, "num_tokens": 126181.0, "step": 296 }, { "epoch": 0.099, "grad_norm": 16.899662017822266, "learning_rate": 1.8584192439862545e-05, "loss": 0.3026, "num_tokens": 126788.0, "step": 297 }, { "epoch": 0.09933333333333333, "grad_norm": 25.370384216308594, "learning_rate": 1.8577319587628868e-05, "loss": 0.5305, "num_tokens": 127191.0, "step": 298 }, { "epoch": 0.09966666666666667, "grad_norm": 35.13995361328125, "learning_rate": 1.857044673539519e-05, "loss": 0.251, "num_tokens": 127736.0, "step": 299 }, { "epoch": 0.1, "grad_norm": 72.9909439086914, "learning_rate": 1.8563573883161514e-05, "loss": 0.8122, "num_tokens": 127972.0, "step": 300 }, { "epoch": 0.10033333333333333, "grad_norm": 38.739654541015625, "learning_rate": 1.8556701030927837e-05, "loss": 0.2941, "num_tokens": 128281.0, "step": 301 }, { "epoch": 0.10066666666666667, "grad_norm": 59.909629821777344, "learning_rate": 1.854982817869416e-05, "loss": 0.7977, "num_tokens": 128606.0, "step": 302 }, { "epoch": 0.101, "grad_norm": 28.629846572875977, "learning_rate": 1.8542955326460483e-05, "loss": 0.3312, "num_tokens": 129160.0, "step": 303 }, { "epoch": 0.10133333333333333, "grad_norm": 30.19131088256836, "learning_rate": 1.8536082474226806e-05, "loss": 0.4437, "num_tokens": 129524.0, "step": 304 }, { "epoch": 0.10166666666666667, "grad_norm": 28.359947204589844, "learning_rate": 1.852920962199313e-05, "loss": 0.5925, "num_tokens": 129935.0, "step": 305 }, { "epoch": 0.102, "grad_norm": 27.915075302124023, "learning_rate": 1.8522336769759452e-05, "loss": 0.3835, "num_tokens": 130497.0, "step": 306 }, { "epoch": 0.10233333333333333, "grad_norm": 35.15650939941406, "learning_rate": 1.8515463917525775e-05, "loss": 0.5454, "num_tokens": 130832.0, "step": 307 }, { "epoch": 0.10266666666666667, "grad_norm": 27.789154052734375, "learning_rate": 1.8508591065292098e-05, "loss": 0.5859, "num_tokens": 131409.0, "step": 308 }, { "epoch": 0.103, "grad_norm": 43.43570327758789, "learning_rate": 1.850171821305842e-05, "loss": 0.8178, "num_tokens": 131640.0, "step": 309 }, { "epoch": 0.10333333333333333, "grad_norm": 38.694435119628906, "learning_rate": 1.8494845360824744e-05, "loss": 0.853, "num_tokens": 131885.0, "step": 310 }, { "epoch": 0.10366666666666667, "grad_norm": 14.144389152526855, "learning_rate": 1.8487972508591067e-05, "loss": 0.3274, "num_tokens": 132650.0, "step": 311 }, { "epoch": 0.104, "grad_norm": 20.59508514404297, "learning_rate": 1.848109965635739e-05, "loss": 0.332, "num_tokens": 133066.0, "step": 312 }, { "epoch": 0.10433333333333333, "grad_norm": 35.49625778198242, "learning_rate": 1.8474226804123713e-05, "loss": 0.7787, "num_tokens": 133320.0, "step": 313 }, { "epoch": 0.10466666666666667, "grad_norm": 20.29273796081543, "learning_rate": 1.8467353951890036e-05, "loss": 0.3692, "num_tokens": 133873.0, "step": 314 }, { "epoch": 0.105, "grad_norm": 30.282691955566406, "learning_rate": 1.846048109965636e-05, "loss": 0.3123, "num_tokens": 134313.0, "step": 315 }, { "epoch": 0.10533333333333333, "grad_norm": 16.257665634155273, "learning_rate": 1.8453608247422682e-05, "loss": 0.3404, "num_tokens": 135161.0, "step": 316 }, { "epoch": 0.10566666666666667, "grad_norm": 45.54347229003906, "learning_rate": 1.8446735395189005e-05, "loss": 0.4937, "num_tokens": 135470.0, "step": 317 }, { "epoch": 0.106, "grad_norm": 39.742950439453125, "learning_rate": 1.8439862542955328e-05, "loss": 0.7146, "num_tokens": 135738.0, "step": 318 }, { "epoch": 0.10633333333333334, "grad_norm": 26.2645206451416, "learning_rate": 1.843298969072165e-05, "loss": 0.506, "num_tokens": 136194.0, "step": 319 }, { "epoch": 0.10666666666666667, "grad_norm": 29.43448257446289, "learning_rate": 1.8426116838487974e-05, "loss": 0.5173, "num_tokens": 136470.0, "step": 320 }, { "epoch": 0.107, "grad_norm": 27.24252700805664, "learning_rate": 1.8419243986254297e-05, "loss": 0.5787, "num_tokens": 136791.0, "step": 321 }, { "epoch": 0.10733333333333334, "grad_norm": 20.00716209411621, "learning_rate": 1.841237113402062e-05, "loss": 0.4199, "num_tokens": 137284.0, "step": 322 }, { "epoch": 0.10766666666666666, "grad_norm": 17.578948974609375, "learning_rate": 1.8405498281786943e-05, "loss": 0.3236, "num_tokens": 137992.0, "step": 323 }, { "epoch": 0.108, "grad_norm": 24.953998565673828, "learning_rate": 1.8398625429553266e-05, "loss": 0.3105, "num_tokens": 138510.0, "step": 324 }, { "epoch": 0.10833333333333334, "grad_norm": 15.391066551208496, "learning_rate": 1.839175257731959e-05, "loss": 0.3002, "num_tokens": 139019.0, "step": 325 }, { "epoch": 0.10866666666666666, "grad_norm": 15.61146068572998, "learning_rate": 1.8384879725085912e-05, "loss": 0.2897, "num_tokens": 139740.0, "step": 326 }, { "epoch": 0.109, "grad_norm": 15.885650634765625, "learning_rate": 1.8378006872852235e-05, "loss": 0.3292, "num_tokens": 140365.0, "step": 327 }, { "epoch": 0.10933333333333334, "grad_norm": 21.972192764282227, "learning_rate": 1.8371134020618558e-05, "loss": 0.3616, "num_tokens": 140899.0, "step": 328 }, { "epoch": 0.10966666666666666, "grad_norm": 20.309297561645508, "learning_rate": 1.836426116838488e-05, "loss": 0.4569, "num_tokens": 141699.0, "step": 329 }, { "epoch": 0.11, "grad_norm": 32.15669250488281, "learning_rate": 1.8357388316151204e-05, "loss": 0.5418, "num_tokens": 142000.0, "step": 330 }, { "epoch": 0.11033333333333334, "grad_norm": 56.57528305053711, "learning_rate": 1.8350515463917527e-05, "loss": 0.2981, "num_tokens": 142568.0, "step": 331 }, { "epoch": 0.11066666666666666, "grad_norm": 23.60865592956543, "learning_rate": 1.834364261168385e-05, "loss": 0.4471, "num_tokens": 143003.0, "step": 332 }, { "epoch": 0.111, "grad_norm": 45.314273834228516, "learning_rate": 1.8336769759450173e-05, "loss": 0.8688, "num_tokens": 143217.0, "step": 333 }, { "epoch": 0.11133333333333334, "grad_norm": 115.07856750488281, "learning_rate": 1.8329896907216496e-05, "loss": 0.9472, "num_tokens": 143402.0, "step": 334 }, { "epoch": 0.11166666666666666, "grad_norm": 29.714092254638672, "learning_rate": 1.832302405498282e-05, "loss": 0.5351, "num_tokens": 143678.0, "step": 335 }, { "epoch": 0.112, "grad_norm": 17.933687210083008, "learning_rate": 1.8316151202749142e-05, "loss": 0.2255, "num_tokens": 144046.0, "step": 336 }, { "epoch": 0.11233333333333333, "grad_norm": 28.57701873779297, "learning_rate": 1.8309278350515465e-05, "loss": 0.5766, "num_tokens": 144484.0, "step": 337 }, { "epoch": 0.11266666666666666, "grad_norm": 25.793231964111328, "learning_rate": 1.8302405498281788e-05, "loss": 0.4169, "num_tokens": 144807.0, "step": 338 }, { "epoch": 0.113, "grad_norm": 22.070350646972656, "learning_rate": 1.829553264604811e-05, "loss": 0.3988, "num_tokens": 145272.0, "step": 339 }, { "epoch": 0.11333333333333333, "grad_norm": 17.80551528930664, "learning_rate": 1.8288659793814434e-05, "loss": 0.3612, "num_tokens": 145850.0, "step": 340 }, { "epoch": 0.11366666666666667, "grad_norm": 19.763381958007812, "learning_rate": 1.8281786941580757e-05, "loss": 0.4703, "num_tokens": 146316.0, "step": 341 }, { "epoch": 0.114, "grad_norm": 22.812047958374023, "learning_rate": 1.827491408934708e-05, "loss": 0.2943, "num_tokens": 146925.0, "step": 342 }, { "epoch": 0.11433333333333333, "grad_norm": 14.56030559539795, "learning_rate": 1.8268041237113403e-05, "loss": 0.2921, "num_tokens": 147490.0, "step": 343 }, { "epoch": 0.11466666666666667, "grad_norm": 22.50061798095703, "learning_rate": 1.8261168384879726e-05, "loss": 0.3895, "num_tokens": 147880.0, "step": 344 }, { "epoch": 0.115, "grad_norm": 27.27079200744629, "learning_rate": 1.825429553264605e-05, "loss": 0.4231, "num_tokens": 148265.0, "step": 345 }, { "epoch": 0.11533333333333333, "grad_norm": 23.741975784301758, "learning_rate": 1.8247422680412372e-05, "loss": 0.3831, "num_tokens": 148725.0, "step": 346 }, { "epoch": 0.11566666666666667, "grad_norm": 18.17969512939453, "learning_rate": 1.8240549828178695e-05, "loss": 0.3395, "num_tokens": 149157.0, "step": 347 }, { "epoch": 0.116, "grad_norm": 29.78831672668457, "learning_rate": 1.8233676975945018e-05, "loss": 0.5682, "num_tokens": 149617.0, "step": 348 }, { "epoch": 0.11633333333333333, "grad_norm": 27.710926055908203, "learning_rate": 1.822680412371134e-05, "loss": 0.6457, "num_tokens": 149954.0, "step": 349 }, { "epoch": 0.11666666666666667, "grad_norm": 22.891868591308594, "learning_rate": 1.8219931271477664e-05, "loss": 0.4718, "num_tokens": 150518.0, "step": 350 }, { "epoch": 0.117, "grad_norm": 26.409526824951172, "learning_rate": 1.8213058419243987e-05, "loss": 0.3455, "num_tokens": 151152.0, "step": 351 }, { "epoch": 0.11733333333333333, "grad_norm": 48.46035385131836, "learning_rate": 1.820618556701031e-05, "loss": 0.6172, "num_tokens": 151468.0, "step": 352 }, { "epoch": 0.11766666666666667, "grad_norm": 34.801658630371094, "learning_rate": 1.8199312714776633e-05, "loss": 0.7299, "num_tokens": 151810.0, "step": 353 }, { "epoch": 0.118, "grad_norm": 34.63065719604492, "learning_rate": 1.8192439862542956e-05, "loss": 0.3005, "num_tokens": 152213.0, "step": 354 }, { "epoch": 0.11833333333333333, "grad_norm": 30.14621353149414, "learning_rate": 1.818556701030928e-05, "loss": 0.4017, "num_tokens": 152704.0, "step": 355 }, { "epoch": 0.11866666666666667, "grad_norm": 27.550901412963867, "learning_rate": 1.8178694158075602e-05, "loss": 0.4101, "num_tokens": 153168.0, "step": 356 }, { "epoch": 0.119, "grad_norm": 35.19160842895508, "learning_rate": 1.8171821305841925e-05, "loss": 0.6839, "num_tokens": 153426.0, "step": 357 }, { "epoch": 0.11933333333333333, "grad_norm": 18.548734664916992, "learning_rate": 1.8164948453608248e-05, "loss": 0.288, "num_tokens": 153835.0, "step": 358 }, { "epoch": 0.11966666666666667, "grad_norm": 18.44453239440918, "learning_rate": 1.815807560137457e-05, "loss": 0.4006, "num_tokens": 154351.0, "step": 359 }, { "epoch": 0.12, "grad_norm": 35.23210906982422, "learning_rate": 1.8151202749140894e-05, "loss": 0.4813, "num_tokens": 154577.0, "step": 360 }, { "epoch": 0.12033333333333333, "grad_norm": 22.455120086669922, "learning_rate": 1.8144329896907217e-05, "loss": 0.3411, "num_tokens": 155104.0, "step": 361 }, { "epoch": 0.12066666666666667, "grad_norm": 41.07017517089844, "learning_rate": 1.813745704467354e-05, "loss": 0.5927, "num_tokens": 155445.0, "step": 362 }, { "epoch": 0.121, "grad_norm": 20.727876663208008, "learning_rate": 1.8130584192439863e-05, "loss": 0.3124, "num_tokens": 155821.0, "step": 363 }, { "epoch": 0.12133333333333333, "grad_norm": 36.86009979248047, "learning_rate": 1.8123711340206186e-05, "loss": 0.6221, "num_tokens": 156061.0, "step": 364 }, { "epoch": 0.12166666666666667, "grad_norm": 23.657840728759766, "learning_rate": 1.811683848797251e-05, "loss": 0.3896, "num_tokens": 156458.0, "step": 365 }, { "epoch": 0.122, "grad_norm": 91.57533264160156, "learning_rate": 1.8109965635738832e-05, "loss": 0.4828, "num_tokens": 156838.0, "step": 366 }, { "epoch": 0.12233333333333334, "grad_norm": 29.500930786132812, "learning_rate": 1.8103092783505155e-05, "loss": 0.3219, "num_tokens": 157152.0, "step": 367 }, { "epoch": 0.12266666666666666, "grad_norm": 15.189298629760742, "learning_rate": 1.809621993127148e-05, "loss": 0.3181, "num_tokens": 158066.0, "step": 368 }, { "epoch": 0.123, "grad_norm": 24.642986297607422, "learning_rate": 1.80893470790378e-05, "loss": 0.4064, "num_tokens": 158455.0, "step": 369 }, { "epoch": 0.12333333333333334, "grad_norm": 29.104766845703125, "learning_rate": 1.8082474226804124e-05, "loss": 0.6252, "num_tokens": 158722.0, "step": 370 }, { "epoch": 0.12366666666666666, "grad_norm": 56.02358627319336, "learning_rate": 1.8075601374570447e-05, "loss": 0.6691, "num_tokens": 158984.0, "step": 371 }, { "epoch": 0.124, "grad_norm": 23.48501205444336, "learning_rate": 1.806872852233677e-05, "loss": 0.3644, "num_tokens": 159338.0, "step": 372 }, { "epoch": 0.12433333333333334, "grad_norm": 23.82691764831543, "learning_rate": 1.8061855670103093e-05, "loss": 0.3994, "num_tokens": 159764.0, "step": 373 }, { "epoch": 0.12466666666666666, "grad_norm": 25.259727478027344, "learning_rate": 1.8054982817869416e-05, "loss": 0.536, "num_tokens": 160172.0, "step": 374 }, { "epoch": 0.125, "grad_norm": 30.988243103027344, "learning_rate": 1.804810996563574e-05, "loss": 0.6692, "num_tokens": 160433.0, "step": 375 }, { "epoch": 0.12533333333333332, "grad_norm": 20.449365615844727, "learning_rate": 1.8041237113402062e-05, "loss": 0.4313, "num_tokens": 160913.0, "step": 376 }, { "epoch": 0.12566666666666668, "grad_norm": 35.40486526489258, "learning_rate": 1.8034364261168385e-05, "loss": 0.3475, "num_tokens": 161266.0, "step": 377 }, { "epoch": 0.126, "grad_norm": 15.015335083007812, "learning_rate": 1.802749140893471e-05, "loss": 0.2335, "num_tokens": 161854.0, "step": 378 }, { "epoch": 0.12633333333333333, "grad_norm": 23.38346290588379, "learning_rate": 1.802061855670103e-05, "loss": 0.378, "num_tokens": 162168.0, "step": 379 }, { "epoch": 0.12666666666666668, "grad_norm": 15.325318336486816, "learning_rate": 1.8013745704467354e-05, "loss": 0.2007, "num_tokens": 163012.0, "step": 380 }, { "epoch": 0.127, "grad_norm": 30.95763397216797, "learning_rate": 1.8006872852233677e-05, "loss": 0.4862, "num_tokens": 163449.0, "step": 381 }, { "epoch": 0.12733333333333333, "grad_norm": 52.36934280395508, "learning_rate": 1.8e-05, "loss": 0.4751, "num_tokens": 163695.0, "step": 382 }, { "epoch": 0.12766666666666668, "grad_norm": 13.800684928894043, "learning_rate": 1.7993127147766323e-05, "loss": 0.2425, "num_tokens": 164574.0, "step": 383 }, { "epoch": 0.128, "grad_norm": 22.05525779724121, "learning_rate": 1.7986254295532646e-05, "loss": 0.2274, "num_tokens": 165154.0, "step": 384 }, { "epoch": 0.12833333333333333, "grad_norm": 26.92284393310547, "learning_rate": 1.797938144329897e-05, "loss": 0.5323, "num_tokens": 165576.0, "step": 385 }, { "epoch": 0.12866666666666668, "grad_norm": 27.347618103027344, "learning_rate": 1.7972508591065292e-05, "loss": 0.3966, "num_tokens": 166008.0, "step": 386 }, { "epoch": 0.129, "grad_norm": 75.76184844970703, "learning_rate": 1.7965635738831615e-05, "loss": 0.497, "num_tokens": 166400.0, "step": 387 }, { "epoch": 0.12933333333333333, "grad_norm": 14.213099479675293, "learning_rate": 1.7958762886597942e-05, "loss": 0.2565, "num_tokens": 167000.0, "step": 388 }, { "epoch": 0.12966666666666668, "grad_norm": 20.6612491607666, "learning_rate": 1.7951890034364265e-05, "loss": 0.3684, "num_tokens": 167389.0, "step": 389 }, { "epoch": 0.13, "grad_norm": 34.62000274658203, "learning_rate": 1.7945017182130588e-05, "loss": 0.5078, "num_tokens": 167662.0, "step": 390 }, { "epoch": 0.13033333333333333, "grad_norm": 39.924461364746094, "learning_rate": 1.793814432989691e-05, "loss": 0.4566, "num_tokens": 168094.0, "step": 391 }, { "epoch": 0.13066666666666665, "grad_norm": 26.041629791259766, "learning_rate": 1.7931271477663234e-05, "loss": 0.3264, "num_tokens": 168502.0, "step": 392 }, { "epoch": 0.131, "grad_norm": 48.80217742919922, "learning_rate": 1.7924398625429557e-05, "loss": 0.3925, "num_tokens": 168892.0, "step": 393 }, { "epoch": 0.13133333333333333, "grad_norm": 26.03668212890625, "learning_rate": 1.791752577319588e-05, "loss": 0.3489, "num_tokens": 169336.0, "step": 394 }, { "epoch": 0.13166666666666665, "grad_norm": 15.759737014770508, "learning_rate": 1.7910652920962203e-05, "loss": 0.2514, "num_tokens": 169880.0, "step": 395 }, { "epoch": 0.132, "grad_norm": 45.62040710449219, "learning_rate": 1.7903780068728526e-05, "loss": 0.8975, "num_tokens": 170100.0, "step": 396 }, { "epoch": 0.13233333333333333, "grad_norm": 19.41387939453125, "learning_rate": 1.789690721649485e-05, "loss": 0.3467, "num_tokens": 170584.0, "step": 397 }, { "epoch": 0.13266666666666665, "grad_norm": 15.50485897064209, "learning_rate": 1.7890034364261172e-05, "loss": 0.2207, "num_tokens": 171153.0, "step": 398 }, { "epoch": 0.133, "grad_norm": 22.475608825683594, "learning_rate": 1.7883161512027495e-05, "loss": 0.305, "num_tokens": 171580.0, "step": 399 }, { "epoch": 0.13333333333333333, "grad_norm": 20.059383392333984, "learning_rate": 1.7876288659793818e-05, "loss": 0.2623, "num_tokens": 171999.0, "step": 400 }, { "epoch": 0.13366666666666666, "grad_norm": 55.094966888427734, "learning_rate": 1.786941580756014e-05, "loss": 0.3176, "num_tokens": 172365.0, "step": 401 }, { "epoch": 0.134, "grad_norm": 12.016053199768066, "learning_rate": 1.7862542955326464e-05, "loss": 0.2353, "num_tokens": 173067.0, "step": 402 }, { "epoch": 0.13433333333333333, "grad_norm": 18.45512580871582, "learning_rate": 1.7855670103092787e-05, "loss": 0.2717, "num_tokens": 173727.0, "step": 403 }, { "epoch": 0.13466666666666666, "grad_norm": 17.47917366027832, "learning_rate": 1.784879725085911e-05, "loss": 0.228, "num_tokens": 174205.0, "step": 404 }, { "epoch": 0.135, "grad_norm": 30.00370979309082, "learning_rate": 1.7841924398625433e-05, "loss": 0.211, "num_tokens": 174565.0, "step": 405 }, { "epoch": 0.13533333333333333, "grad_norm": 19.197914123535156, "learning_rate": 1.7835051546391756e-05, "loss": 0.2952, "num_tokens": 174947.0, "step": 406 }, { "epoch": 0.13566666666666666, "grad_norm": 20.285863876342773, "learning_rate": 1.782817869415808e-05, "loss": 0.3608, "num_tokens": 175372.0, "step": 407 }, { "epoch": 0.136, "grad_norm": 23.008180618286133, "learning_rate": 1.7821305841924402e-05, "loss": 0.2572, "num_tokens": 175812.0, "step": 408 }, { "epoch": 0.13633333333333333, "grad_norm": 23.130706787109375, "learning_rate": 1.7814432989690725e-05, "loss": 0.3287, "num_tokens": 176199.0, "step": 409 }, { "epoch": 0.13666666666666666, "grad_norm": 26.146041870117188, "learning_rate": 1.7807560137457045e-05, "loss": 0.4153, "num_tokens": 176661.0, "step": 410 }, { "epoch": 0.137, "grad_norm": 10.40959358215332, "learning_rate": 1.7800687285223368e-05, "loss": 0.1377, "num_tokens": 177142.0, "step": 411 }, { "epoch": 0.13733333333333334, "grad_norm": 36.71569061279297, "learning_rate": 1.779381443298969e-05, "loss": 0.6828, "num_tokens": 177507.0, "step": 412 }, { "epoch": 0.13766666666666666, "grad_norm": 31.66615104675293, "learning_rate": 1.7786941580756014e-05, "loss": 0.523, "num_tokens": 177815.0, "step": 413 }, { "epoch": 0.138, "grad_norm": 35.65137481689453, "learning_rate": 1.7780068728522337e-05, "loss": 0.3982, "num_tokens": 178332.0, "step": 414 }, { "epoch": 0.13833333333333334, "grad_norm": 29.639667510986328, "learning_rate": 1.777319587628866e-05, "loss": 0.4441, "num_tokens": 178629.0, "step": 415 }, { "epoch": 0.13866666666666666, "grad_norm": 19.314533233642578, "learning_rate": 1.7766323024054983e-05, "loss": 0.4225, "num_tokens": 179189.0, "step": 416 }, { "epoch": 0.139, "grad_norm": 53.23433303833008, "learning_rate": 1.7759450171821306e-05, "loss": 0.7223, "num_tokens": 179442.0, "step": 417 }, { "epoch": 0.13933333333333334, "grad_norm": 21.173763275146484, "learning_rate": 1.775257731958763e-05, "loss": 0.4782, "num_tokens": 179836.0, "step": 418 }, { "epoch": 0.13966666666666666, "grad_norm": 23.679580688476562, "learning_rate": 1.7745704467353952e-05, "loss": 0.3915, "num_tokens": 180380.0, "step": 419 }, { "epoch": 0.14, "grad_norm": 18.570032119750977, "learning_rate": 1.7738831615120275e-05, "loss": 0.3743, "num_tokens": 180927.0, "step": 420 }, { "epoch": 0.14033333333333334, "grad_norm": 15.993633270263672, "learning_rate": 1.7731958762886598e-05, "loss": 0.3522, "num_tokens": 181452.0, "step": 421 }, { "epoch": 0.14066666666666666, "grad_norm": 16.787677764892578, "learning_rate": 1.772508591065292e-05, "loss": 0.3206, "num_tokens": 181900.0, "step": 422 }, { "epoch": 0.141, "grad_norm": 20.07572364807129, "learning_rate": 1.7718213058419244e-05, "loss": 0.3863, "num_tokens": 182314.0, "step": 423 }, { "epoch": 0.14133333333333334, "grad_norm": 19.24660301208496, "learning_rate": 1.7711340206185567e-05, "loss": 0.3249, "num_tokens": 182813.0, "step": 424 }, { "epoch": 0.14166666666666666, "grad_norm": 17.589942932128906, "learning_rate": 1.770446735395189e-05, "loss": 0.4149, "num_tokens": 183420.0, "step": 425 }, { "epoch": 0.142, "grad_norm": 13.7640380859375, "learning_rate": 1.7697594501718213e-05, "loss": 0.207, "num_tokens": 184015.0, "step": 426 }, { "epoch": 0.14233333333333334, "grad_norm": 14.775389671325684, "learning_rate": 1.7690721649484536e-05, "loss": 0.2858, "num_tokens": 184547.0, "step": 427 }, { "epoch": 0.14266666666666666, "grad_norm": 37.36191940307617, "learning_rate": 1.768384879725086e-05, "loss": 0.3873, "num_tokens": 184889.0, "step": 428 }, { "epoch": 0.143, "grad_norm": 36.255149841308594, "learning_rate": 1.7676975945017182e-05, "loss": 0.5039, "num_tokens": 185193.0, "step": 429 }, { "epoch": 0.14333333333333334, "grad_norm": 22.563600540161133, "learning_rate": 1.7670103092783505e-05, "loss": 0.4366, "num_tokens": 185755.0, "step": 430 }, { "epoch": 0.14366666666666666, "grad_norm": 23.48263168334961, "learning_rate": 1.7663230240549828e-05, "loss": 0.2662, "num_tokens": 186342.0, "step": 431 }, { "epoch": 0.144, "grad_norm": 20.39504051208496, "learning_rate": 1.765635738831615e-05, "loss": 0.3613, "num_tokens": 186804.0, "step": 432 }, { "epoch": 0.14433333333333334, "grad_norm": 21.80072021484375, "learning_rate": 1.7649484536082474e-05, "loss": 0.471, "num_tokens": 187189.0, "step": 433 }, { "epoch": 0.14466666666666667, "grad_norm": 26.284135818481445, "learning_rate": 1.7642611683848797e-05, "loss": 0.5449, "num_tokens": 187530.0, "step": 434 }, { "epoch": 0.145, "grad_norm": 21.60777473449707, "learning_rate": 1.763573883161512e-05, "loss": 0.3901, "num_tokens": 187861.0, "step": 435 }, { "epoch": 0.14533333333333334, "grad_norm": 14.764845848083496, "learning_rate": 1.7628865979381443e-05, "loss": 0.3867, "num_tokens": 188730.0, "step": 436 }, { "epoch": 0.14566666666666667, "grad_norm": 16.469728469848633, "learning_rate": 1.7621993127147766e-05, "loss": 0.3008, "num_tokens": 189313.0, "step": 437 }, { "epoch": 0.146, "grad_norm": 34.35407638549805, "learning_rate": 1.761512027491409e-05, "loss": 0.5725, "num_tokens": 189650.0, "step": 438 }, { "epoch": 0.14633333333333334, "grad_norm": 17.538541793823242, "learning_rate": 1.7608247422680412e-05, "loss": 0.4507, "num_tokens": 190189.0, "step": 439 }, { "epoch": 0.14666666666666667, "grad_norm": 23.459949493408203, "learning_rate": 1.7601374570446735e-05, "loss": 0.6709, "num_tokens": 190681.0, "step": 440 }, { "epoch": 0.147, "grad_norm": 16.916532516479492, "learning_rate": 1.7594501718213058e-05, "loss": 0.2768, "num_tokens": 191082.0, "step": 441 }, { "epoch": 0.14733333333333334, "grad_norm": 23.190073013305664, "learning_rate": 1.758762886597938e-05, "loss": 0.5224, "num_tokens": 191499.0, "step": 442 }, { "epoch": 0.14766666666666667, "grad_norm": 35.74082565307617, "learning_rate": 1.7580756013745704e-05, "loss": 0.4837, "num_tokens": 191957.0, "step": 443 }, { "epoch": 0.148, "grad_norm": 9.367639541625977, "learning_rate": 1.7573883161512027e-05, "loss": 0.1654, "num_tokens": 192742.0, "step": 444 }, { "epoch": 0.14833333333333334, "grad_norm": 23.839393615722656, "learning_rate": 1.7567010309278353e-05, "loss": 0.4329, "num_tokens": 193160.0, "step": 445 }, { "epoch": 0.14866666666666667, "grad_norm": 19.201862335205078, "learning_rate": 1.7560137457044676e-05, "loss": 0.3333, "num_tokens": 193590.0, "step": 446 }, { "epoch": 0.149, "grad_norm": 29.59769058227539, "learning_rate": 1.7553264604811e-05, "loss": 0.2663, "num_tokens": 194093.0, "step": 447 }, { "epoch": 0.14933333333333335, "grad_norm": 28.38691520690918, "learning_rate": 1.7546391752577322e-05, "loss": 0.5119, "num_tokens": 194439.0, "step": 448 }, { "epoch": 0.14966666666666667, "grad_norm": 17.883792877197266, "learning_rate": 1.7539518900343645e-05, "loss": 0.3322, "num_tokens": 195106.0, "step": 449 }, { "epoch": 0.15, "grad_norm": 21.76114845275879, "learning_rate": 1.753264604810997e-05, "loss": 0.4618, "num_tokens": 195488.0, "step": 450 }, { "epoch": 0.15033333333333335, "grad_norm": 18.695579528808594, "learning_rate": 1.752577319587629e-05, "loss": 0.2556, "num_tokens": 195772.0, "step": 451 }, { "epoch": 0.15066666666666667, "grad_norm": 21.111772537231445, "learning_rate": 1.7518900343642614e-05, "loss": 0.3259, "num_tokens": 196257.0, "step": 452 }, { "epoch": 0.151, "grad_norm": 21.88755226135254, "learning_rate": 1.7512027491408937e-05, "loss": 0.285, "num_tokens": 196668.0, "step": 453 }, { "epoch": 0.15133333333333332, "grad_norm": 17.129901885986328, "learning_rate": 1.750515463917526e-05, "loss": 0.2083, "num_tokens": 197100.0, "step": 454 }, { "epoch": 0.15166666666666667, "grad_norm": 30.10249900817871, "learning_rate": 1.7498281786941583e-05, "loss": 0.6742, "num_tokens": 197443.0, "step": 455 }, { "epoch": 0.152, "grad_norm": 17.409177780151367, "learning_rate": 1.7491408934707906e-05, "loss": 0.2217, "num_tokens": 197790.0, "step": 456 }, { "epoch": 0.15233333333333332, "grad_norm": 16.78458595275879, "learning_rate": 1.748453608247423e-05, "loss": 0.2354, "num_tokens": 198257.0, "step": 457 }, { "epoch": 0.15266666666666667, "grad_norm": 53.29841232299805, "learning_rate": 1.7477663230240552e-05, "loss": 0.6327, "num_tokens": 198567.0, "step": 458 }, { "epoch": 0.153, "grad_norm": 28.44548988342285, "learning_rate": 1.7470790378006875e-05, "loss": 0.512, "num_tokens": 198784.0, "step": 459 }, { "epoch": 0.15333333333333332, "grad_norm": 76.2418441772461, "learning_rate": 1.74639175257732e-05, "loss": 0.5556, "num_tokens": 199041.0, "step": 460 }, { "epoch": 0.15366666666666667, "grad_norm": 19.00859832763672, "learning_rate": 1.745704467353952e-05, "loss": 0.3015, "num_tokens": 199534.0, "step": 461 }, { "epoch": 0.154, "grad_norm": 23.51732063293457, "learning_rate": 1.7450171821305845e-05, "loss": 0.364, "num_tokens": 199952.0, "step": 462 }, { "epoch": 0.15433333333333332, "grad_norm": 13.962043762207031, "learning_rate": 1.7443298969072168e-05, "loss": 0.21, "num_tokens": 200707.0, "step": 463 }, { "epoch": 0.15466666666666667, "grad_norm": 30.04779815673828, "learning_rate": 1.743642611683849e-05, "loss": 0.4516, "num_tokens": 201005.0, "step": 464 }, { "epoch": 0.155, "grad_norm": 26.44369125366211, "learning_rate": 1.7429553264604814e-05, "loss": 0.5104, "num_tokens": 201427.0, "step": 465 }, { "epoch": 0.15533333333333332, "grad_norm": 14.317481994628906, "learning_rate": 1.7422680412371137e-05, "loss": 0.2453, "num_tokens": 202214.0, "step": 466 }, { "epoch": 0.15566666666666668, "grad_norm": 19.795888900756836, "learning_rate": 1.741580756013746e-05, "loss": 0.3448, "num_tokens": 202648.0, "step": 467 }, { "epoch": 0.156, "grad_norm": 21.876707077026367, "learning_rate": 1.7408934707903783e-05, "loss": 0.3475, "num_tokens": 203093.0, "step": 468 }, { "epoch": 0.15633333333333332, "grad_norm": 25.528244018554688, "learning_rate": 1.7402061855670106e-05, "loss": 0.3503, "num_tokens": 203424.0, "step": 469 }, { "epoch": 0.15666666666666668, "grad_norm": 49.659236907958984, "learning_rate": 1.739518900343643e-05, "loss": 0.6613, "num_tokens": 203680.0, "step": 470 }, { "epoch": 0.157, "grad_norm": 22.557395935058594, "learning_rate": 1.738831615120275e-05, "loss": 0.2684, "num_tokens": 203951.0, "step": 471 }, { "epoch": 0.15733333333333333, "grad_norm": 34.72840881347656, "learning_rate": 1.7381443298969075e-05, "loss": 0.6837, "num_tokens": 204199.0, "step": 472 }, { "epoch": 0.15766666666666668, "grad_norm": 17.086915969848633, "learning_rate": 1.7374570446735398e-05, "loss": 0.3609, "num_tokens": 204731.0, "step": 473 }, { "epoch": 0.158, "grad_norm": 49.82794952392578, "learning_rate": 1.736769759450172e-05, "loss": 0.6539, "num_tokens": 204938.0, "step": 474 }, { "epoch": 0.15833333333333333, "grad_norm": 20.47834014892578, "learning_rate": 1.7360824742268044e-05, "loss": 0.4217, "num_tokens": 205342.0, "step": 475 }, { "epoch": 0.15866666666666668, "grad_norm": 18.873167037963867, "learning_rate": 1.7353951890034367e-05, "loss": 0.4118, "num_tokens": 205968.0, "step": 476 }, { "epoch": 0.159, "grad_norm": 15.121624946594238, "learning_rate": 1.734707903780069e-05, "loss": 0.3484, "num_tokens": 206805.0, "step": 477 }, { "epoch": 0.15933333333333333, "grad_norm": 15.313365936279297, "learning_rate": 1.7340206185567013e-05, "loss": 0.2959, "num_tokens": 207297.0, "step": 478 }, { "epoch": 0.15966666666666668, "grad_norm": 47.93696594238281, "learning_rate": 1.7333333333333336e-05, "loss": 0.6226, "num_tokens": 207674.0, "step": 479 }, { "epoch": 0.16, "grad_norm": 27.130521774291992, "learning_rate": 1.732646048109966e-05, "loss": 0.6609, "num_tokens": 207931.0, "step": 480 }, { "epoch": 0.16033333333333333, "grad_norm": 22.288991928100586, "learning_rate": 1.731958762886598e-05, "loss": 0.5482, "num_tokens": 208354.0, "step": 481 }, { "epoch": 0.16066666666666668, "grad_norm": 16.43842315673828, "learning_rate": 1.7312714776632305e-05, "loss": 0.3466, "num_tokens": 208841.0, "step": 482 }, { "epoch": 0.161, "grad_norm": 18.5867919921875, "learning_rate": 1.7305841924398628e-05, "loss": 0.288, "num_tokens": 209352.0, "step": 483 }, { "epoch": 0.16133333333333333, "grad_norm": 18.81549835205078, "learning_rate": 1.729896907216495e-05, "loss": 0.2755, "num_tokens": 209862.0, "step": 484 }, { "epoch": 0.16166666666666665, "grad_norm": 26.995450973510742, "learning_rate": 1.7292096219931274e-05, "loss": 0.5618, "num_tokens": 210345.0, "step": 485 }, { "epoch": 0.162, "grad_norm": 18.192176818847656, "learning_rate": 1.7285223367697597e-05, "loss": 0.357, "num_tokens": 210756.0, "step": 486 }, { "epoch": 0.16233333333333333, "grad_norm": 53.38581085205078, "learning_rate": 1.727835051546392e-05, "loss": 0.7004, "num_tokens": 211054.0, "step": 487 }, { "epoch": 0.16266666666666665, "grad_norm": 32.21673583984375, "learning_rate": 1.7271477663230243e-05, "loss": 0.4297, "num_tokens": 211340.0, "step": 488 }, { "epoch": 0.163, "grad_norm": 25.616121292114258, "learning_rate": 1.7264604810996566e-05, "loss": 0.6612, "num_tokens": 211801.0, "step": 489 }, { "epoch": 0.16333333333333333, "grad_norm": 27.65186309814453, "learning_rate": 1.725773195876289e-05, "loss": 0.5601, "num_tokens": 212050.0, "step": 490 }, { "epoch": 0.16366666666666665, "grad_norm": 20.75261688232422, "learning_rate": 1.7250859106529212e-05, "loss": 0.3892, "num_tokens": 212479.0, "step": 491 }, { "epoch": 0.164, "grad_norm": 21.209962844848633, "learning_rate": 1.7243986254295535e-05, "loss": 0.324, "num_tokens": 213020.0, "step": 492 }, { "epoch": 0.16433333333333333, "grad_norm": 20.01892852783203, "learning_rate": 1.7237113402061858e-05, "loss": 0.4005, "num_tokens": 213490.0, "step": 493 }, { "epoch": 0.16466666666666666, "grad_norm": 29.406463623046875, "learning_rate": 1.723024054982818e-05, "loss": 0.6401, "num_tokens": 213775.0, "step": 494 }, { "epoch": 0.165, "grad_norm": 19.645174026489258, "learning_rate": 1.7223367697594504e-05, "loss": 0.438, "num_tokens": 214178.0, "step": 495 }, { "epoch": 0.16533333333333333, "grad_norm": 16.082355499267578, "learning_rate": 1.7216494845360827e-05, "loss": 0.2615, "num_tokens": 214745.0, "step": 496 }, { "epoch": 0.16566666666666666, "grad_norm": 12.057690620422363, "learning_rate": 1.720962199312715e-05, "loss": 0.3366, "num_tokens": 215732.0, "step": 497 }, { "epoch": 0.166, "grad_norm": 19.436437606811523, "learning_rate": 1.7202749140893473e-05, "loss": 0.4662, "num_tokens": 216154.0, "step": 498 }, { "epoch": 0.16633333333333333, "grad_norm": 24.42662811279297, "learning_rate": 1.7195876288659796e-05, "loss": 0.5601, "num_tokens": 216493.0, "step": 499 }, { "epoch": 0.16666666666666666, "grad_norm": 34.63334655761719, "learning_rate": 1.718900343642612e-05, "loss": 0.5371, "num_tokens": 216817.0, "step": 500 }, { "epoch": 0.167, "grad_norm": 20.38674545288086, "learning_rate": 1.7182130584192442e-05, "loss": 0.478, "num_tokens": 217142.0, "step": 501 }, { "epoch": 0.16733333333333333, "grad_norm": 21.208032608032227, "learning_rate": 1.7175257731958765e-05, "loss": 0.4482, "num_tokens": 217547.0, "step": 502 }, { "epoch": 0.16766666666666666, "grad_norm": 26.266990661621094, "learning_rate": 1.7168384879725088e-05, "loss": 0.6107, "num_tokens": 217907.0, "step": 503 }, { "epoch": 0.168, "grad_norm": 61.92717742919922, "learning_rate": 1.716151202749141e-05, "loss": 0.3041, "num_tokens": 218350.0, "step": 504 }, { "epoch": 0.16833333333333333, "grad_norm": 54.85898208618164, "learning_rate": 1.7154639175257734e-05, "loss": 0.5664, "num_tokens": 218621.0, "step": 505 }, { "epoch": 0.16866666666666666, "grad_norm": 23.685298919677734, "learning_rate": 1.7147766323024057e-05, "loss": 0.4331, "num_tokens": 219102.0, "step": 506 }, { "epoch": 0.169, "grad_norm": 28.45393180847168, "learning_rate": 1.714089347079038e-05, "loss": 0.5257, "num_tokens": 219365.0, "step": 507 }, { "epoch": 0.16933333333333334, "grad_norm": 21.749603271484375, "learning_rate": 1.7134020618556703e-05, "loss": 0.3034, "num_tokens": 219741.0, "step": 508 }, { "epoch": 0.16966666666666666, "grad_norm": 15.658947944641113, "learning_rate": 1.7127147766323026e-05, "loss": 0.3072, "num_tokens": 220227.0, "step": 509 }, { "epoch": 0.17, "grad_norm": 17.05265998840332, "learning_rate": 1.712027491408935e-05, "loss": 0.4372, "num_tokens": 220695.0, "step": 510 }, { "epoch": 0.17033333333333334, "grad_norm": 31.408248901367188, "learning_rate": 1.7113402061855672e-05, "loss": 0.3711, "num_tokens": 221048.0, "step": 511 }, { "epoch": 0.17066666666666666, "grad_norm": 12.65321159362793, "learning_rate": 1.7106529209621995e-05, "loss": 0.2461, "num_tokens": 221593.0, "step": 512 }, { "epoch": 0.171, "grad_norm": 40.484619140625, "learning_rate": 1.7099656357388318e-05, "loss": 0.841, "num_tokens": 221849.0, "step": 513 }, { "epoch": 0.17133333333333334, "grad_norm": 22.97848892211914, "learning_rate": 1.709278350515464e-05, "loss": 0.5678, "num_tokens": 222188.0, "step": 514 }, { "epoch": 0.17166666666666666, "grad_norm": 28.992382049560547, "learning_rate": 1.7085910652920964e-05, "loss": 0.5182, "num_tokens": 222488.0, "step": 515 }, { "epoch": 0.172, "grad_norm": 16.19476890563965, "learning_rate": 1.7079037800687287e-05, "loss": 0.3239, "num_tokens": 223058.0, "step": 516 }, { "epoch": 0.17233333333333334, "grad_norm": 28.93166732788086, "learning_rate": 1.707216494845361e-05, "loss": 0.6013, "num_tokens": 223332.0, "step": 517 }, { "epoch": 0.17266666666666666, "grad_norm": 25.95389747619629, "learning_rate": 1.7065292096219933e-05, "loss": 0.412, "num_tokens": 223627.0, "step": 518 }, { "epoch": 0.173, "grad_norm": 31.67219352722168, "learning_rate": 1.7058419243986256e-05, "loss": 0.4289, "num_tokens": 223953.0, "step": 519 }, { "epoch": 0.17333333333333334, "grad_norm": 24.735300064086914, "learning_rate": 1.705154639175258e-05, "loss": 0.2586, "num_tokens": 224458.0, "step": 520 }, { "epoch": 0.17366666666666666, "grad_norm": 40.71742630004883, "learning_rate": 1.7044673539518902e-05, "loss": 0.6031, "num_tokens": 224646.0, "step": 521 }, { "epoch": 0.174, "grad_norm": 17.032861709594727, "learning_rate": 1.7037800687285225e-05, "loss": 0.3329, "num_tokens": 225057.0, "step": 522 }, { "epoch": 0.17433333333333334, "grad_norm": 28.10430145263672, "learning_rate": 1.7030927835051548e-05, "loss": 0.4354, "num_tokens": 225378.0, "step": 523 }, { "epoch": 0.17466666666666666, "grad_norm": 20.194217681884766, "learning_rate": 1.702405498281787e-05, "loss": 0.227, "num_tokens": 225718.0, "step": 524 }, { "epoch": 0.175, "grad_norm": 25.47016143798828, "learning_rate": 1.7017182130584194e-05, "loss": 0.6717, "num_tokens": 226080.0, "step": 525 }, { "epoch": 0.17533333333333334, "grad_norm": 24.243797302246094, "learning_rate": 1.7010309278350517e-05, "loss": 0.6254, "num_tokens": 226583.0, "step": 526 }, { "epoch": 0.17566666666666667, "grad_norm": 41.210296630859375, "learning_rate": 1.700343642611684e-05, "loss": 0.8439, "num_tokens": 226826.0, "step": 527 }, { "epoch": 0.176, "grad_norm": 28.7137393951416, "learning_rate": 1.6996563573883163e-05, "loss": 0.2657, "num_tokens": 227407.0, "step": 528 }, { "epoch": 0.17633333333333334, "grad_norm": 12.281630516052246, "learning_rate": 1.6989690721649486e-05, "loss": 0.188, "num_tokens": 228009.0, "step": 529 }, { "epoch": 0.17666666666666667, "grad_norm": 21.486019134521484, "learning_rate": 1.698281786941581e-05, "loss": 0.258, "num_tokens": 228892.0, "step": 530 }, { "epoch": 0.177, "grad_norm": 27.315610885620117, "learning_rate": 1.6975945017182132e-05, "loss": 0.5292, "num_tokens": 229168.0, "step": 531 }, { "epoch": 0.17733333333333334, "grad_norm": 21.286457061767578, "learning_rate": 1.6969072164948455e-05, "loss": 0.3979, "num_tokens": 229504.0, "step": 532 }, { "epoch": 0.17766666666666667, "grad_norm": 18.422861099243164, "learning_rate": 1.6962199312714778e-05, "loss": 0.3508, "num_tokens": 229966.0, "step": 533 }, { "epoch": 0.178, "grad_norm": 15.002598762512207, "learning_rate": 1.69553264604811e-05, "loss": 0.3153, "num_tokens": 230667.0, "step": 534 }, { "epoch": 0.17833333333333334, "grad_norm": 16.335908889770508, "learning_rate": 1.6948453608247424e-05, "loss": 0.2913, "num_tokens": 231279.0, "step": 535 }, { "epoch": 0.17866666666666667, "grad_norm": 46.51729965209961, "learning_rate": 1.6941580756013747e-05, "loss": 0.6204, "num_tokens": 231583.0, "step": 536 }, { "epoch": 0.179, "grad_norm": 49.30997085571289, "learning_rate": 1.693470790378007e-05, "loss": 0.8763, "num_tokens": 231778.0, "step": 537 }, { "epoch": 0.17933333333333334, "grad_norm": 31.57961082458496, "learning_rate": 1.6927835051546393e-05, "loss": 0.5906, "num_tokens": 232055.0, "step": 538 }, { "epoch": 0.17966666666666667, "grad_norm": 23.945438385009766, "learning_rate": 1.6920962199312716e-05, "loss": 0.3446, "num_tokens": 232373.0, "step": 539 }, { "epoch": 0.18, "grad_norm": 25.289033889770508, "learning_rate": 1.691408934707904e-05, "loss": 0.6543, "num_tokens": 232768.0, "step": 540 }, { "epoch": 0.18033333333333335, "grad_norm": 13.83476734161377, "learning_rate": 1.6907216494845362e-05, "loss": 0.2211, "num_tokens": 233293.0, "step": 541 }, { "epoch": 0.18066666666666667, "grad_norm": 22.183866500854492, "learning_rate": 1.6900343642611685e-05, "loss": 0.5002, "num_tokens": 233588.0, "step": 542 }, { "epoch": 0.181, "grad_norm": 19.43381690979004, "learning_rate": 1.6893470790378008e-05, "loss": 0.4236, "num_tokens": 233943.0, "step": 543 }, { "epoch": 0.18133333333333335, "grad_norm": 35.85491943359375, "learning_rate": 1.688659793814433e-05, "loss": 0.6956, "num_tokens": 234219.0, "step": 544 }, { "epoch": 0.18166666666666667, "grad_norm": 26.069541931152344, "learning_rate": 1.6879725085910654e-05, "loss": 0.5819, "num_tokens": 234699.0, "step": 545 }, { "epoch": 0.182, "grad_norm": 13.64471435546875, "learning_rate": 1.6872852233676977e-05, "loss": 0.2775, "num_tokens": 235116.0, "step": 546 }, { "epoch": 0.18233333333333332, "grad_norm": 17.30000877380371, "learning_rate": 1.68659793814433e-05, "loss": 0.3685, "num_tokens": 235550.0, "step": 547 }, { "epoch": 0.18266666666666667, "grad_norm": 27.314037322998047, "learning_rate": 1.6859106529209623e-05, "loss": 0.3786, "num_tokens": 235990.0, "step": 548 }, { "epoch": 0.183, "grad_norm": 17.323287963867188, "learning_rate": 1.6852233676975946e-05, "loss": 0.3289, "num_tokens": 236456.0, "step": 549 }, { "epoch": 0.18333333333333332, "grad_norm": 22.846689224243164, "learning_rate": 1.684536082474227e-05, "loss": 0.4695, "num_tokens": 236771.0, "step": 550 }, { "epoch": 0.18366666666666667, "grad_norm": 15.031794548034668, "learning_rate": 1.6838487972508592e-05, "loss": 0.4268, "num_tokens": 237393.0, "step": 551 }, { "epoch": 0.184, "grad_norm": 19.950162887573242, "learning_rate": 1.6831615120274915e-05, "loss": 0.4457, "num_tokens": 237793.0, "step": 552 }, { "epoch": 0.18433333333333332, "grad_norm": 15.98537540435791, "learning_rate": 1.6824742268041238e-05, "loss": 0.3753, "num_tokens": 238297.0, "step": 553 }, { "epoch": 0.18466666666666667, "grad_norm": 16.582721710205078, "learning_rate": 1.681786941580756e-05, "loss": 0.3152, "num_tokens": 238817.0, "step": 554 }, { "epoch": 0.185, "grad_norm": 25.71152114868164, "learning_rate": 1.6810996563573884e-05, "loss": 0.5861, "num_tokens": 239120.0, "step": 555 }, { "epoch": 0.18533333333333332, "grad_norm": 25.623010635375977, "learning_rate": 1.6804123711340207e-05, "loss": 0.6981, "num_tokens": 239426.0, "step": 556 }, { "epoch": 0.18566666666666667, "grad_norm": 14.8167085647583, "learning_rate": 1.679725085910653e-05, "loss": 0.2488, "num_tokens": 239914.0, "step": 557 }, { "epoch": 0.186, "grad_norm": 18.452024459838867, "learning_rate": 1.6790378006872853e-05, "loss": 0.257, "num_tokens": 240310.0, "step": 558 }, { "epoch": 0.18633333333333332, "grad_norm": 15.72367000579834, "learning_rate": 1.6783505154639176e-05, "loss": 0.3634, "num_tokens": 240893.0, "step": 559 }, { "epoch": 0.18666666666666668, "grad_norm": 36.88656997680664, "learning_rate": 1.67766323024055e-05, "loss": 0.3709, "num_tokens": 241484.0, "step": 560 }, { "epoch": 0.187, "grad_norm": 23.514509201049805, "learning_rate": 1.6769759450171822e-05, "loss": 0.6124, "num_tokens": 241875.0, "step": 561 }, { "epoch": 0.18733333333333332, "grad_norm": 22.05734634399414, "learning_rate": 1.6762886597938145e-05, "loss": 0.3235, "num_tokens": 242582.0, "step": 562 }, { "epoch": 0.18766666666666668, "grad_norm": 25.59742546081543, "learning_rate": 1.675601374570447e-05, "loss": 0.3753, "num_tokens": 242869.0, "step": 563 }, { "epoch": 0.188, "grad_norm": 30.628376007080078, "learning_rate": 1.674914089347079e-05, "loss": 0.3289, "num_tokens": 243398.0, "step": 564 }, { "epoch": 0.18833333333333332, "grad_norm": 19.614044189453125, "learning_rate": 1.6742268041237114e-05, "loss": 0.3987, "num_tokens": 243835.0, "step": 565 }, { "epoch": 0.18866666666666668, "grad_norm": 11.729801177978516, "learning_rate": 1.6735395189003437e-05, "loss": 0.2859, "num_tokens": 244575.0, "step": 566 }, { "epoch": 0.189, "grad_norm": 21.81154441833496, "learning_rate": 1.672852233676976e-05, "loss": 0.3451, "num_tokens": 244856.0, "step": 567 }, { "epoch": 0.18933333333333333, "grad_norm": 27.10545539855957, "learning_rate": 1.6721649484536083e-05, "loss": 0.5689, "num_tokens": 245144.0, "step": 568 }, { "epoch": 0.18966666666666668, "grad_norm": 13.525874137878418, "learning_rate": 1.6714776632302406e-05, "loss": 0.2313, "num_tokens": 245565.0, "step": 569 }, { "epoch": 0.19, "grad_norm": 21.132083892822266, "learning_rate": 1.670790378006873e-05, "loss": 0.4784, "num_tokens": 245979.0, "step": 570 }, { "epoch": 0.19033333333333333, "grad_norm": 17.37161636352539, "learning_rate": 1.6701030927835052e-05, "loss": 0.3031, "num_tokens": 246420.0, "step": 571 }, { "epoch": 0.19066666666666668, "grad_norm": 25.221349716186523, "learning_rate": 1.6694158075601375e-05, "loss": 0.4156, "num_tokens": 246875.0, "step": 572 }, { "epoch": 0.191, "grad_norm": 30.317277908325195, "learning_rate": 1.66872852233677e-05, "loss": 0.6828, "num_tokens": 247127.0, "step": 573 }, { "epoch": 0.19133333333333333, "grad_norm": 22.4108829498291, "learning_rate": 1.668041237113402e-05, "loss": 0.4167, "num_tokens": 247473.0, "step": 574 }, { "epoch": 0.19166666666666668, "grad_norm": 42.48869323730469, "learning_rate": 1.6673539518900344e-05, "loss": 0.9041, "num_tokens": 247652.0, "step": 575 }, { "epoch": 0.192, "grad_norm": 24.68836212158203, "learning_rate": 1.6666666666666667e-05, "loss": 0.4365, "num_tokens": 248148.0, "step": 576 }, { "epoch": 0.19233333333333333, "grad_norm": 32.10274124145508, "learning_rate": 1.665979381443299e-05, "loss": 0.2874, "num_tokens": 248787.0, "step": 577 }, { "epoch": 0.19266666666666668, "grad_norm": 21.163625717163086, "learning_rate": 1.6652920962199313e-05, "loss": 0.5279, "num_tokens": 249124.0, "step": 578 }, { "epoch": 0.193, "grad_norm": 22.90005874633789, "learning_rate": 1.6646048109965636e-05, "loss": 0.4013, "num_tokens": 249499.0, "step": 579 }, { "epoch": 0.19333333333333333, "grad_norm": 23.710302352905273, "learning_rate": 1.663917525773196e-05, "loss": 0.394, "num_tokens": 249758.0, "step": 580 }, { "epoch": 0.19366666666666665, "grad_norm": 26.265275955200195, "learning_rate": 1.6632302405498283e-05, "loss": 0.296, "num_tokens": 250024.0, "step": 581 }, { "epoch": 0.194, "grad_norm": 19.32786750793457, "learning_rate": 1.6625429553264606e-05, "loss": 0.3482, "num_tokens": 250448.0, "step": 582 }, { "epoch": 0.19433333333333333, "grad_norm": 34.811004638671875, "learning_rate": 1.661855670103093e-05, "loss": 0.6017, "num_tokens": 250651.0, "step": 583 }, { "epoch": 0.19466666666666665, "grad_norm": 33.16473388671875, "learning_rate": 1.661168384879725e-05, "loss": 0.5537, "num_tokens": 250921.0, "step": 584 }, { "epoch": 0.195, "grad_norm": 24.060787200927734, "learning_rate": 1.6604810996563575e-05, "loss": 0.5043, "num_tokens": 251203.0, "step": 585 }, { "epoch": 0.19533333333333333, "grad_norm": 11.13211441040039, "learning_rate": 1.65979381443299e-05, "loss": 0.2553, "num_tokens": 251862.0, "step": 586 }, { "epoch": 0.19566666666666666, "grad_norm": 29.783037185668945, "learning_rate": 1.6591065292096224e-05, "loss": 0.655, "num_tokens": 252232.0, "step": 587 }, { "epoch": 0.196, "grad_norm": 16.797468185424805, "learning_rate": 1.6584192439862547e-05, "loss": 0.2835, "num_tokens": 252653.0, "step": 588 }, { "epoch": 0.19633333333333333, "grad_norm": 14.84044361114502, "learning_rate": 1.657731958762887e-05, "loss": 0.3562, "num_tokens": 253354.0, "step": 589 }, { "epoch": 0.19666666666666666, "grad_norm": 31.560718536376953, "learning_rate": 1.6570446735395193e-05, "loss": 0.6884, "num_tokens": 253592.0, "step": 590 }, { "epoch": 0.197, "grad_norm": 16.031721115112305, "learning_rate": 1.6563573883161516e-05, "loss": 0.3924, "num_tokens": 254009.0, "step": 591 }, { "epoch": 0.19733333333333333, "grad_norm": 21.088621139526367, "learning_rate": 1.6556701030927836e-05, "loss": 0.4674, "num_tokens": 254363.0, "step": 592 }, { "epoch": 0.19766666666666666, "grad_norm": 18.056909561157227, "learning_rate": 1.654982817869416e-05, "loss": 0.3131, "num_tokens": 254697.0, "step": 593 }, { "epoch": 0.198, "grad_norm": 12.323354721069336, "learning_rate": 1.654295532646048e-05, "loss": 0.2245, "num_tokens": 255214.0, "step": 594 }, { "epoch": 0.19833333333333333, "grad_norm": 13.75442123413086, "learning_rate": 1.6536082474226805e-05, "loss": 0.2726, "num_tokens": 255718.0, "step": 595 }, { "epoch": 0.19866666666666666, "grad_norm": 17.051673889160156, "learning_rate": 1.6529209621993128e-05, "loss": 0.3152, "num_tokens": 256367.0, "step": 596 }, { "epoch": 0.199, "grad_norm": 12.190932273864746, "learning_rate": 1.652233676975945e-05, "loss": 0.1536, "num_tokens": 256731.0, "step": 597 }, { "epoch": 0.19933333333333333, "grad_norm": 22.305383682250977, "learning_rate": 1.6515463917525774e-05, "loss": 0.259, "num_tokens": 257030.0, "step": 598 }, { "epoch": 0.19966666666666666, "grad_norm": 25.14312744140625, "learning_rate": 1.6508591065292097e-05, "loss": 0.3787, "num_tokens": 257267.0, "step": 599 }, { "epoch": 0.2, "grad_norm": 15.937422752380371, "learning_rate": 1.650171821305842e-05, "loss": 0.323, "num_tokens": 257731.0, "step": 600 }, { "epoch": 0.20033333333333334, "grad_norm": 19.65683937072754, "learning_rate": 1.6494845360824743e-05, "loss": 0.4435, "num_tokens": 258234.0, "step": 601 }, { "epoch": 0.20066666666666666, "grad_norm": 23.734676361083984, "learning_rate": 1.6487972508591066e-05, "loss": 0.4078, "num_tokens": 258583.0, "step": 602 }, { "epoch": 0.201, "grad_norm": 25.02617073059082, "learning_rate": 1.648109965635739e-05, "loss": 0.4529, "num_tokens": 258897.0, "step": 603 }, { "epoch": 0.20133333333333334, "grad_norm": 27.19719123840332, "learning_rate": 1.6474226804123712e-05, "loss": 0.487, "num_tokens": 259154.0, "step": 604 }, { "epoch": 0.20166666666666666, "grad_norm": 19.7155818939209, "learning_rate": 1.6467353951890035e-05, "loss": 0.4354, "num_tokens": 259586.0, "step": 605 }, { "epoch": 0.202, "grad_norm": 30.209171295166016, "learning_rate": 1.6460481099656358e-05, "loss": 0.4659, "num_tokens": 259874.0, "step": 606 }, { "epoch": 0.20233333333333334, "grad_norm": 22.83366584777832, "learning_rate": 1.645360824742268e-05, "loss": 0.2936, "num_tokens": 260267.0, "step": 607 }, { "epoch": 0.20266666666666666, "grad_norm": 18.518339157104492, "learning_rate": 1.6446735395189004e-05, "loss": 0.307, "num_tokens": 260709.0, "step": 608 }, { "epoch": 0.203, "grad_norm": 11.78290843963623, "learning_rate": 1.6439862542955327e-05, "loss": 0.2411, "num_tokens": 261368.0, "step": 609 }, { "epoch": 0.20333333333333334, "grad_norm": 30.326934814453125, "learning_rate": 1.643298969072165e-05, "loss": 0.5799, "num_tokens": 261598.0, "step": 610 }, { "epoch": 0.20366666666666666, "grad_norm": 26.588197708129883, "learning_rate": 1.6426116838487973e-05, "loss": 0.3544, "num_tokens": 261908.0, "step": 611 }, { "epoch": 0.204, "grad_norm": 13.719107627868652, "learning_rate": 1.6419243986254296e-05, "loss": 0.202, "num_tokens": 262323.0, "step": 612 }, { "epoch": 0.20433333333333334, "grad_norm": 22.264862060546875, "learning_rate": 1.641237113402062e-05, "loss": 0.4205, "num_tokens": 262690.0, "step": 613 }, { "epoch": 0.20466666666666666, "grad_norm": 30.448408126831055, "learning_rate": 1.6405498281786942e-05, "loss": 0.5443, "num_tokens": 262927.0, "step": 614 }, { "epoch": 0.205, "grad_norm": 9.65341567993164, "learning_rate": 1.6398625429553265e-05, "loss": 0.2313, "num_tokens": 263919.0, "step": 615 }, { "epoch": 0.20533333333333334, "grad_norm": 21.44770050048828, "learning_rate": 1.6391752577319588e-05, "loss": 0.4415, "num_tokens": 264439.0, "step": 616 }, { "epoch": 0.20566666666666666, "grad_norm": 17.24468994140625, "learning_rate": 1.638487972508591e-05, "loss": 0.4365, "num_tokens": 264902.0, "step": 617 }, { "epoch": 0.206, "grad_norm": 24.271669387817383, "learning_rate": 1.6378006872852234e-05, "loss": 0.4271, "num_tokens": 265230.0, "step": 618 }, { "epoch": 0.20633333333333334, "grad_norm": 26.003381729125977, "learning_rate": 1.6371134020618557e-05, "loss": 0.5493, "num_tokens": 265581.0, "step": 619 }, { "epoch": 0.20666666666666667, "grad_norm": 21.941686630249023, "learning_rate": 1.636426116838488e-05, "loss": 0.4646, "num_tokens": 265924.0, "step": 620 }, { "epoch": 0.207, "grad_norm": 33.77889633178711, "learning_rate": 1.6357388316151203e-05, "loss": 0.5853, "num_tokens": 266137.0, "step": 621 }, { "epoch": 0.20733333333333334, "grad_norm": 18.66501235961914, "learning_rate": 1.6350515463917526e-05, "loss": 0.269, "num_tokens": 266544.0, "step": 622 }, { "epoch": 0.20766666666666667, "grad_norm": 22.491485595703125, "learning_rate": 1.634364261168385e-05, "loss": 0.3891, "num_tokens": 266833.0, "step": 623 }, { "epoch": 0.208, "grad_norm": 13.81707763671875, "learning_rate": 1.6336769759450172e-05, "loss": 0.2507, "num_tokens": 267483.0, "step": 624 }, { "epoch": 0.20833333333333334, "grad_norm": 23.89751625061035, "learning_rate": 1.6329896907216495e-05, "loss": 0.3861, "num_tokens": 268159.0, "step": 625 }, { "epoch": 0.20866666666666667, "grad_norm": 28.264066696166992, "learning_rate": 1.6323024054982818e-05, "loss": 0.3205, "num_tokens": 268590.0, "step": 626 }, { "epoch": 0.209, "grad_norm": 34.47746276855469, "learning_rate": 1.631615120274914e-05, "loss": 0.9738, "num_tokens": 268898.0, "step": 627 }, { "epoch": 0.20933333333333334, "grad_norm": 17.890108108520508, "learning_rate": 1.6309278350515464e-05, "loss": 0.2935, "num_tokens": 269450.0, "step": 628 }, { "epoch": 0.20966666666666667, "grad_norm": 26.296497344970703, "learning_rate": 1.6302405498281787e-05, "loss": 0.4101, "num_tokens": 269683.0, "step": 629 }, { "epoch": 0.21, "grad_norm": 20.453472137451172, "learning_rate": 1.629553264604811e-05, "loss": 0.4293, "num_tokens": 270022.0, "step": 630 }, { "epoch": 0.21033333333333334, "grad_norm": 13.469695091247559, "learning_rate": 1.6288659793814433e-05, "loss": 0.2362, "num_tokens": 270647.0, "step": 631 }, { "epoch": 0.21066666666666667, "grad_norm": 13.308784484863281, "learning_rate": 1.6281786941580756e-05, "loss": 0.294, "num_tokens": 271255.0, "step": 632 }, { "epoch": 0.211, "grad_norm": 31.742849349975586, "learning_rate": 1.627491408934708e-05, "loss": 0.5296, "num_tokens": 271656.0, "step": 633 }, { "epoch": 0.21133333333333335, "grad_norm": 27.552366256713867, "learning_rate": 1.6268041237113402e-05, "loss": 0.7271, "num_tokens": 272030.0, "step": 634 }, { "epoch": 0.21166666666666667, "grad_norm": 18.473188400268555, "learning_rate": 1.6261168384879725e-05, "loss": 0.4223, "num_tokens": 272610.0, "step": 635 }, { "epoch": 0.212, "grad_norm": 18.43381118774414, "learning_rate": 1.6254295532646048e-05, "loss": 0.3241, "num_tokens": 272976.0, "step": 636 }, { "epoch": 0.21233333333333335, "grad_norm": 15.261659622192383, "learning_rate": 1.624742268041237e-05, "loss": 0.2858, "num_tokens": 273432.0, "step": 637 }, { "epoch": 0.21266666666666667, "grad_norm": 22.178998947143555, "learning_rate": 1.6240549828178694e-05, "loss": 0.5097, "num_tokens": 273799.0, "step": 638 }, { "epoch": 0.213, "grad_norm": 19.257829666137695, "learning_rate": 1.6233676975945017e-05, "loss": 0.4429, "num_tokens": 274297.0, "step": 639 }, { "epoch": 0.21333333333333335, "grad_norm": 35.73877716064453, "learning_rate": 1.622680412371134e-05, "loss": 0.5773, "num_tokens": 274599.0, "step": 640 }, { "epoch": 0.21366666666666667, "grad_norm": 26.63612174987793, "learning_rate": 1.6219931271477663e-05, "loss": 0.6138, "num_tokens": 274900.0, "step": 641 }, { "epoch": 0.214, "grad_norm": 37.242828369140625, "learning_rate": 1.621305841924399e-05, "loss": 0.8253, "num_tokens": 275100.0, "step": 642 }, { "epoch": 0.21433333333333332, "grad_norm": 31.978225708007812, "learning_rate": 1.6206185567010312e-05, "loss": 0.2574, "num_tokens": 275587.0, "step": 643 }, { "epoch": 0.21466666666666667, "grad_norm": 23.825271606445312, "learning_rate": 1.6199312714776635e-05, "loss": 0.4425, "num_tokens": 276133.0, "step": 644 }, { "epoch": 0.215, "grad_norm": 18.92102813720703, "learning_rate": 1.619243986254296e-05, "loss": 0.3877, "num_tokens": 276565.0, "step": 645 }, { "epoch": 0.21533333333333332, "grad_norm": 18.847394943237305, "learning_rate": 1.618556701030928e-05, "loss": 0.2627, "num_tokens": 276890.0, "step": 646 }, { "epoch": 0.21566666666666667, "grad_norm": 21.81018829345703, "learning_rate": 1.6178694158075604e-05, "loss": 0.385, "num_tokens": 277201.0, "step": 647 }, { "epoch": 0.216, "grad_norm": 24.859315872192383, "learning_rate": 1.6171821305841927e-05, "loss": 0.6009, "num_tokens": 277547.0, "step": 648 }, { "epoch": 0.21633333333333332, "grad_norm": 21.944673538208008, "learning_rate": 1.616494845360825e-05, "loss": 0.319, "num_tokens": 278263.0, "step": 649 }, { "epoch": 0.21666666666666667, "grad_norm": 28.320730209350586, "learning_rate": 1.6158075601374573e-05, "loss": 0.54, "num_tokens": 278608.0, "step": 650 }, { "epoch": 0.217, "grad_norm": 29.88319969177246, "learning_rate": 1.6151202749140896e-05, "loss": 0.5501, "num_tokens": 278815.0, "step": 651 }, { "epoch": 0.21733333333333332, "grad_norm": 28.360767364501953, "learning_rate": 1.614432989690722e-05, "loss": 0.6172, "num_tokens": 279120.0, "step": 652 }, { "epoch": 0.21766666666666667, "grad_norm": 15.245465278625488, "learning_rate": 1.6137457044673542e-05, "loss": 0.3297, "num_tokens": 279648.0, "step": 653 }, { "epoch": 0.218, "grad_norm": 16.195669174194336, "learning_rate": 1.6130584192439866e-05, "loss": 0.4211, "num_tokens": 280157.0, "step": 654 }, { "epoch": 0.21833333333333332, "grad_norm": 21.093807220458984, "learning_rate": 1.612371134020619e-05, "loss": 0.2858, "num_tokens": 280551.0, "step": 655 }, { "epoch": 0.21866666666666668, "grad_norm": 21.21099853515625, "learning_rate": 1.611683848797251e-05, "loss": 0.347, "num_tokens": 280888.0, "step": 656 }, { "epoch": 0.219, "grad_norm": 18.88507652282715, "learning_rate": 1.6109965635738835e-05, "loss": 0.4835, "num_tokens": 281358.0, "step": 657 }, { "epoch": 0.21933333333333332, "grad_norm": 14.83598518371582, "learning_rate": 1.6103092783505158e-05, "loss": 0.3287, "num_tokens": 281829.0, "step": 658 }, { "epoch": 0.21966666666666668, "grad_norm": 20.4962158203125, "learning_rate": 1.609621993127148e-05, "loss": 0.3486, "num_tokens": 282184.0, "step": 659 }, { "epoch": 0.22, "grad_norm": 28.730119705200195, "learning_rate": 1.6089347079037804e-05, "loss": 0.5519, "num_tokens": 282383.0, "step": 660 }, { "epoch": 0.22033333333333333, "grad_norm": 53.70389175415039, "learning_rate": 1.6082474226804127e-05, "loss": 0.3823, "num_tokens": 282916.0, "step": 661 }, { "epoch": 0.22066666666666668, "grad_norm": 35.809410095214844, "learning_rate": 1.607560137457045e-05, "loss": 0.3127, "num_tokens": 283308.0, "step": 662 }, { "epoch": 0.221, "grad_norm": 21.06481170654297, "learning_rate": 1.6068728522336773e-05, "loss": 0.3769, "num_tokens": 283667.0, "step": 663 }, { "epoch": 0.22133333333333333, "grad_norm": 18.709928512573242, "learning_rate": 1.6061855670103096e-05, "loss": 0.4331, "num_tokens": 284018.0, "step": 664 }, { "epoch": 0.22166666666666668, "grad_norm": 20.094240188598633, "learning_rate": 1.605498281786942e-05, "loss": 0.4782, "num_tokens": 284416.0, "step": 665 }, { "epoch": 0.222, "grad_norm": 15.828883171081543, "learning_rate": 1.604810996563574e-05, "loss": 0.3001, "num_tokens": 284752.0, "step": 666 }, { "epoch": 0.22233333333333333, "grad_norm": 30.30340576171875, "learning_rate": 1.6041237113402065e-05, "loss": 0.5355, "num_tokens": 284960.0, "step": 667 }, { "epoch": 0.22266666666666668, "grad_norm": 13.684536933898926, "learning_rate": 1.6034364261168388e-05, "loss": 0.2653, "num_tokens": 285739.0, "step": 668 }, { "epoch": 0.223, "grad_norm": 10.602097511291504, "learning_rate": 1.602749140893471e-05, "loss": 0.1799, "num_tokens": 286224.0, "step": 669 }, { "epoch": 0.22333333333333333, "grad_norm": 22.557619094848633, "learning_rate": 1.6020618556701034e-05, "loss": 0.3632, "num_tokens": 286712.0, "step": 670 }, { "epoch": 0.22366666666666668, "grad_norm": 17.45625877380371, "learning_rate": 1.6013745704467357e-05, "loss": 0.4969, "num_tokens": 287244.0, "step": 671 }, { "epoch": 0.224, "grad_norm": 13.798023223876953, "learning_rate": 1.600687285223368e-05, "loss": 0.2989, "num_tokens": 287739.0, "step": 672 }, { "epoch": 0.22433333333333333, "grad_norm": 27.30744743347168, "learning_rate": 1.6000000000000003e-05, "loss": 0.4331, "num_tokens": 288119.0, "step": 673 }, { "epoch": 0.22466666666666665, "grad_norm": 14.319175720214844, "learning_rate": 1.5993127147766326e-05, "loss": 0.3279, "num_tokens": 288661.0, "step": 674 }, { "epoch": 0.225, "grad_norm": 34.45911407470703, "learning_rate": 1.598625429553265e-05, "loss": 0.3099, "num_tokens": 289078.0, "step": 675 }, { "epoch": 0.22533333333333333, "grad_norm": 36.244178771972656, "learning_rate": 1.597938144329897e-05, "loss": 0.4217, "num_tokens": 289665.0, "step": 676 }, { "epoch": 0.22566666666666665, "grad_norm": 11.629700660705566, "learning_rate": 1.5972508591065295e-05, "loss": 0.2857, "num_tokens": 290310.0, "step": 677 }, { "epoch": 0.226, "grad_norm": 19.230918884277344, "learning_rate": 1.5965635738831618e-05, "loss": 0.309, "num_tokens": 290630.0, "step": 678 }, { "epoch": 0.22633333333333333, "grad_norm": 11.398876190185547, "learning_rate": 1.595876288659794e-05, "loss": 0.2106, "num_tokens": 291157.0, "step": 679 }, { "epoch": 0.22666666666666666, "grad_norm": 29.815059661865234, "learning_rate": 1.5951890034364264e-05, "loss": 0.8009, "num_tokens": 291446.0, "step": 680 }, { "epoch": 0.227, "grad_norm": 28.3437442779541, "learning_rate": 1.5945017182130587e-05, "loss": 0.5749, "num_tokens": 291787.0, "step": 681 }, { "epoch": 0.22733333333333333, "grad_norm": 15.300314903259277, "learning_rate": 1.593814432989691e-05, "loss": 0.2639, "num_tokens": 292260.0, "step": 682 }, { "epoch": 0.22766666666666666, "grad_norm": 28.80604362487793, "learning_rate": 1.593127147766323e-05, "loss": 0.5484, "num_tokens": 292548.0, "step": 683 }, { "epoch": 0.228, "grad_norm": 32.12178421020508, "learning_rate": 1.5924398625429552e-05, "loss": 0.4452, "num_tokens": 293061.0, "step": 684 }, { "epoch": 0.22833333333333333, "grad_norm": 24.378427505493164, "learning_rate": 1.5917525773195875e-05, "loss": 0.3199, "num_tokens": 293373.0, "step": 685 }, { "epoch": 0.22866666666666666, "grad_norm": 27.304662704467773, "learning_rate": 1.59106529209622e-05, "loss": 0.5542, "num_tokens": 293784.0, "step": 686 }, { "epoch": 0.229, "grad_norm": 23.767757415771484, "learning_rate": 1.590378006872852e-05, "loss": 0.5608, "num_tokens": 294238.0, "step": 687 }, { "epoch": 0.22933333333333333, "grad_norm": 19.656423568725586, "learning_rate": 1.5896907216494844e-05, "loss": 0.3654, "num_tokens": 294595.0, "step": 688 }, { "epoch": 0.22966666666666666, "grad_norm": 24.61363410949707, "learning_rate": 1.5890034364261167e-05, "loss": 0.3687, "num_tokens": 294963.0, "step": 689 }, { "epoch": 0.23, "grad_norm": 15.02269172668457, "learning_rate": 1.588316151202749e-05, "loss": 0.3066, "num_tokens": 295310.0, "step": 690 }, { "epoch": 0.23033333333333333, "grad_norm": 18.62783432006836, "learning_rate": 1.5876288659793813e-05, "loss": 0.4091, "num_tokens": 295731.0, "step": 691 }, { "epoch": 0.23066666666666666, "grad_norm": 20.312801361083984, "learning_rate": 1.5869415807560136e-05, "loss": 0.3947, "num_tokens": 296178.0, "step": 692 }, { "epoch": 0.231, "grad_norm": 31.587772369384766, "learning_rate": 1.586254295532646e-05, "loss": 0.564, "num_tokens": 296379.0, "step": 693 }, { "epoch": 0.23133333333333334, "grad_norm": 18.263164520263672, "learning_rate": 1.5855670103092782e-05, "loss": 0.325, "num_tokens": 296814.0, "step": 694 }, { "epoch": 0.23166666666666666, "grad_norm": 16.923168182373047, "learning_rate": 1.5848797250859105e-05, "loss": 0.3796, "num_tokens": 297335.0, "step": 695 }, { "epoch": 0.232, "grad_norm": 55.827476501464844, "learning_rate": 1.584192439862543e-05, "loss": 0.5675, "num_tokens": 297622.0, "step": 696 }, { "epoch": 0.23233333333333334, "grad_norm": 18.611854553222656, "learning_rate": 1.583505154639175e-05, "loss": 0.2866, "num_tokens": 298039.0, "step": 697 }, { "epoch": 0.23266666666666666, "grad_norm": 38.5455207824707, "learning_rate": 1.5828178694158074e-05, "loss": 0.5417, "num_tokens": 298291.0, "step": 698 }, { "epoch": 0.233, "grad_norm": 28.21441078186035, "learning_rate": 1.58213058419244e-05, "loss": 0.615, "num_tokens": 298646.0, "step": 699 }, { "epoch": 0.23333333333333334, "grad_norm": 16.41607093811035, "learning_rate": 1.5814432989690724e-05, "loss": 0.365, "num_tokens": 299211.0, "step": 700 }, { "epoch": 0.23366666666666666, "grad_norm": 15.552599906921387, "learning_rate": 1.5807560137457047e-05, "loss": 0.27, "num_tokens": 299665.0, "step": 701 }, { "epoch": 0.234, "grad_norm": 26.4362735748291, "learning_rate": 1.580068728522337e-05, "loss": 0.7262, "num_tokens": 299997.0, "step": 702 }, { "epoch": 0.23433333333333334, "grad_norm": 13.410664558410645, "learning_rate": 1.5793814432989693e-05, "loss": 0.2678, "num_tokens": 300500.0, "step": 703 }, { "epoch": 0.23466666666666666, "grad_norm": 23.0742244720459, "learning_rate": 1.5786941580756016e-05, "loss": 0.5494, "num_tokens": 300862.0, "step": 704 }, { "epoch": 0.235, "grad_norm": 13.634366989135742, "learning_rate": 1.578006872852234e-05, "loss": 0.3557, "num_tokens": 301518.0, "step": 705 }, { "epoch": 0.23533333333333334, "grad_norm": 21.77338981628418, "learning_rate": 1.5773195876288662e-05, "loss": 0.4924, "num_tokens": 301926.0, "step": 706 }, { "epoch": 0.23566666666666666, "grad_norm": 24.9615421295166, "learning_rate": 1.5766323024054985e-05, "loss": 0.5586, "num_tokens": 302325.0, "step": 707 }, { "epoch": 0.236, "grad_norm": 27.584152221679688, "learning_rate": 1.5759450171821308e-05, "loss": 0.5199, "num_tokens": 302576.0, "step": 708 }, { "epoch": 0.23633333333333334, "grad_norm": 17.316022872924805, "learning_rate": 1.575257731958763e-05, "loss": 0.355, "num_tokens": 303064.0, "step": 709 }, { "epoch": 0.23666666666666666, "grad_norm": 21.577468872070312, "learning_rate": 1.5745704467353954e-05, "loss": 0.4226, "num_tokens": 303388.0, "step": 710 }, { "epoch": 0.237, "grad_norm": 16.361326217651367, "learning_rate": 1.5738831615120277e-05, "loss": 0.316, "num_tokens": 303811.0, "step": 711 }, { "epoch": 0.23733333333333334, "grad_norm": 24.298433303833008, "learning_rate": 1.57319587628866e-05, "loss": 0.4496, "num_tokens": 304193.0, "step": 712 }, { "epoch": 0.23766666666666666, "grad_norm": 19.517000198364258, "learning_rate": 1.5725085910652923e-05, "loss": 0.3538, "num_tokens": 304531.0, "step": 713 }, { "epoch": 0.238, "grad_norm": 18.186670303344727, "learning_rate": 1.5718213058419246e-05, "loss": 0.3262, "num_tokens": 304869.0, "step": 714 }, { "epoch": 0.23833333333333334, "grad_norm": 45.466705322265625, "learning_rate": 1.571134020618557e-05, "loss": 0.575, "num_tokens": 305362.0, "step": 715 }, { "epoch": 0.23866666666666667, "grad_norm": 19.29486083984375, "learning_rate": 1.5704467353951892e-05, "loss": 0.402, "num_tokens": 305867.0, "step": 716 }, { "epoch": 0.239, "grad_norm": 13.103860855102539, "learning_rate": 1.5697594501718215e-05, "loss": 0.2814, "num_tokens": 306391.0, "step": 717 }, { "epoch": 0.23933333333333334, "grad_norm": 23.156017303466797, "learning_rate": 1.5690721649484538e-05, "loss": 0.3865, "num_tokens": 306690.0, "step": 718 }, { "epoch": 0.23966666666666667, "grad_norm": 20.886796951293945, "learning_rate": 1.568384879725086e-05, "loss": 0.4066, "num_tokens": 306999.0, "step": 719 }, { "epoch": 0.24, "grad_norm": 21.458293914794922, "learning_rate": 1.5676975945017184e-05, "loss": 0.3783, "num_tokens": 307428.0, "step": 720 }, { "epoch": 0.24033333333333334, "grad_norm": 14.171487808227539, "learning_rate": 1.5670103092783507e-05, "loss": 0.258, "num_tokens": 307900.0, "step": 721 }, { "epoch": 0.24066666666666667, "grad_norm": 19.405977249145508, "learning_rate": 1.566323024054983e-05, "loss": 0.2987, "num_tokens": 308271.0, "step": 722 }, { "epoch": 0.241, "grad_norm": 25.859527587890625, "learning_rate": 1.5656357388316153e-05, "loss": 0.499, "num_tokens": 308627.0, "step": 723 }, { "epoch": 0.24133333333333334, "grad_norm": 12.81906795501709, "learning_rate": 1.5649484536082476e-05, "loss": 0.1978, "num_tokens": 309166.0, "step": 724 }, { "epoch": 0.24166666666666667, "grad_norm": 16.02366828918457, "learning_rate": 1.56426116838488e-05, "loss": 0.2883, "num_tokens": 309599.0, "step": 725 }, { "epoch": 0.242, "grad_norm": 30.752145767211914, "learning_rate": 1.5635738831615122e-05, "loss": 0.3891, "num_tokens": 309968.0, "step": 726 }, { "epoch": 0.24233333333333335, "grad_norm": 20.21421241760254, "learning_rate": 1.5628865979381445e-05, "loss": 0.5258, "num_tokens": 310381.0, "step": 727 }, { "epoch": 0.24266666666666667, "grad_norm": 19.82984733581543, "learning_rate": 1.5621993127147768e-05, "loss": 0.3607, "num_tokens": 310788.0, "step": 728 }, { "epoch": 0.243, "grad_norm": 33.50464630126953, "learning_rate": 1.561512027491409e-05, "loss": 0.5762, "num_tokens": 311022.0, "step": 729 }, { "epoch": 0.24333333333333335, "grad_norm": 13.817497253417969, "learning_rate": 1.5608247422680414e-05, "loss": 0.2178, "num_tokens": 311619.0, "step": 730 }, { "epoch": 0.24366666666666667, "grad_norm": 32.058536529541016, "learning_rate": 1.5601374570446737e-05, "loss": 0.5808, "num_tokens": 311851.0, "step": 731 }, { "epoch": 0.244, "grad_norm": 29.21874237060547, "learning_rate": 1.559450171821306e-05, "loss": 0.6909, "num_tokens": 312143.0, "step": 732 }, { "epoch": 0.24433333333333335, "grad_norm": 25.20625114440918, "learning_rate": 1.5587628865979383e-05, "loss": 0.5768, "num_tokens": 312530.0, "step": 733 }, { "epoch": 0.24466666666666667, "grad_norm": 22.7664737701416, "learning_rate": 1.5580756013745706e-05, "loss": 0.452, "num_tokens": 312867.0, "step": 734 }, { "epoch": 0.245, "grad_norm": 29.164140701293945, "learning_rate": 1.557388316151203e-05, "loss": 0.5916, "num_tokens": 313167.0, "step": 735 }, { "epoch": 0.24533333333333332, "grad_norm": 26.84794807434082, "learning_rate": 1.5567010309278352e-05, "loss": 0.4929, "num_tokens": 313516.0, "step": 736 }, { "epoch": 0.24566666666666667, "grad_norm": 16.32344627380371, "learning_rate": 1.5560137457044675e-05, "loss": 0.2932, "num_tokens": 313947.0, "step": 737 }, { "epoch": 0.246, "grad_norm": 29.72564125061035, "learning_rate": 1.5553264604810998e-05, "loss": 0.7409, "num_tokens": 314242.0, "step": 738 }, { "epoch": 0.24633333333333332, "grad_norm": 14.195647239685059, "learning_rate": 1.554639175257732e-05, "loss": 0.3008, "num_tokens": 314740.0, "step": 739 }, { "epoch": 0.24666666666666667, "grad_norm": 22.42542266845703, "learning_rate": 1.5539518900343644e-05, "loss": 0.4434, "num_tokens": 315057.0, "step": 740 }, { "epoch": 0.247, "grad_norm": 8.757437705993652, "learning_rate": 1.5532646048109967e-05, "loss": 0.1748, "num_tokens": 315648.0, "step": 741 }, { "epoch": 0.24733333333333332, "grad_norm": 24.78724479675293, "learning_rate": 1.552577319587629e-05, "loss": 0.4019, "num_tokens": 316060.0, "step": 742 }, { "epoch": 0.24766666666666667, "grad_norm": 18.636009216308594, "learning_rate": 1.5518900343642613e-05, "loss": 0.3494, "num_tokens": 316518.0, "step": 743 }, { "epoch": 0.248, "grad_norm": 11.923733711242676, "learning_rate": 1.5512027491408936e-05, "loss": 0.2977, "num_tokens": 317147.0, "step": 744 }, { "epoch": 0.24833333333333332, "grad_norm": 12.531336784362793, "learning_rate": 1.550515463917526e-05, "loss": 0.2341, "num_tokens": 317886.0, "step": 745 }, { "epoch": 0.24866666666666667, "grad_norm": 25.960203170776367, "learning_rate": 1.5498281786941582e-05, "loss": 0.3073, "num_tokens": 318455.0, "step": 746 }, { "epoch": 0.249, "grad_norm": 26.665084838867188, "learning_rate": 1.5491408934707905e-05, "loss": 0.4105, "num_tokens": 318736.0, "step": 747 }, { "epoch": 0.24933333333333332, "grad_norm": 16.113773345947266, "learning_rate": 1.5484536082474228e-05, "loss": 0.2141, "num_tokens": 319068.0, "step": 748 }, { "epoch": 0.24966666666666668, "grad_norm": 18.72749900817871, "learning_rate": 1.547766323024055e-05, "loss": 0.4587, "num_tokens": 319723.0, "step": 749 }, { "epoch": 0.25, "grad_norm": 17.985380172729492, "learning_rate": 1.5470790378006874e-05, "loss": 0.4159, "num_tokens": 320210.0, "step": 750 }, { "epoch": 0.25033333333333335, "grad_norm": 14.915518760681152, "learning_rate": 1.5463917525773197e-05, "loss": 0.3204, "num_tokens": 320823.0, "step": 751 }, { "epoch": 0.25066666666666665, "grad_norm": 18.683204650878906, "learning_rate": 1.545704467353952e-05, "loss": 0.466, "num_tokens": 321295.0, "step": 752 }, { "epoch": 0.251, "grad_norm": 23.731077194213867, "learning_rate": 1.5450171821305843e-05, "loss": 0.3768, "num_tokens": 321618.0, "step": 753 }, { "epoch": 0.25133333333333335, "grad_norm": 17.449907302856445, "learning_rate": 1.5443298969072166e-05, "loss": 0.4101, "num_tokens": 322114.0, "step": 754 }, { "epoch": 0.25166666666666665, "grad_norm": 13.60303783416748, "learning_rate": 1.543642611683849e-05, "loss": 0.2775, "num_tokens": 322628.0, "step": 755 }, { "epoch": 0.252, "grad_norm": 25.119022369384766, "learning_rate": 1.5429553264604812e-05, "loss": 0.5195, "num_tokens": 322957.0, "step": 756 }, { "epoch": 0.25233333333333335, "grad_norm": 18.598804473876953, "learning_rate": 1.5422680412371135e-05, "loss": 0.4556, "num_tokens": 323576.0, "step": 757 }, { "epoch": 0.25266666666666665, "grad_norm": 19.9899959564209, "learning_rate": 1.541580756013746e-05, "loss": 0.3711, "num_tokens": 323972.0, "step": 758 }, { "epoch": 0.253, "grad_norm": 16.815593719482422, "learning_rate": 1.540893470790378e-05, "loss": 0.3997, "num_tokens": 324338.0, "step": 759 }, { "epoch": 0.25333333333333335, "grad_norm": 16.46075439453125, "learning_rate": 1.5402061855670104e-05, "loss": 0.3848, "num_tokens": 324919.0, "step": 760 }, { "epoch": 0.25366666666666665, "grad_norm": 16.116065979003906, "learning_rate": 1.5395189003436427e-05, "loss": 0.486, "num_tokens": 325558.0, "step": 761 }, { "epoch": 0.254, "grad_norm": 19.8360595703125, "learning_rate": 1.538831615120275e-05, "loss": 0.4157, "num_tokens": 326175.0, "step": 762 }, { "epoch": 0.25433333333333336, "grad_norm": 24.398738861083984, "learning_rate": 1.5381443298969073e-05, "loss": 0.5311, "num_tokens": 326496.0, "step": 763 }, { "epoch": 0.25466666666666665, "grad_norm": 11.683755874633789, "learning_rate": 1.5374570446735396e-05, "loss": 0.2687, "num_tokens": 327141.0, "step": 764 }, { "epoch": 0.255, "grad_norm": 12.966801643371582, "learning_rate": 1.536769759450172e-05, "loss": 0.3007, "num_tokens": 327717.0, "step": 765 }, { "epoch": 0.25533333333333336, "grad_norm": 15.757293701171875, "learning_rate": 1.5360824742268042e-05, "loss": 0.2955, "num_tokens": 328065.0, "step": 766 }, { "epoch": 0.25566666666666665, "grad_norm": 29.468929290771484, "learning_rate": 1.5353951890034365e-05, "loss": 0.6724, "num_tokens": 328301.0, "step": 767 }, { "epoch": 0.256, "grad_norm": 10.610393524169922, "learning_rate": 1.534707903780069e-05, "loss": 0.3114, "num_tokens": 329127.0, "step": 768 }, { "epoch": 0.25633333333333336, "grad_norm": 59.54426574707031, "learning_rate": 1.534020618556701e-05, "loss": 0.8727, "num_tokens": 329348.0, "step": 769 }, { "epoch": 0.25666666666666665, "grad_norm": 10.77741813659668, "learning_rate": 1.5333333333333334e-05, "loss": 0.2982, "num_tokens": 330117.0, "step": 770 }, { "epoch": 0.257, "grad_norm": 15.445230484008789, "learning_rate": 1.5326460481099657e-05, "loss": 0.2693, "num_tokens": 330698.0, "step": 771 }, { "epoch": 0.25733333333333336, "grad_norm": 18.68321990966797, "learning_rate": 1.531958762886598e-05, "loss": 0.5281, "num_tokens": 331208.0, "step": 772 }, { "epoch": 0.25766666666666665, "grad_norm": 12.099520683288574, "learning_rate": 1.5312714776632303e-05, "loss": 0.2025, "num_tokens": 331772.0, "step": 773 }, { "epoch": 0.258, "grad_norm": 12.453295707702637, "learning_rate": 1.5305841924398627e-05, "loss": 0.2836, "num_tokens": 332386.0, "step": 774 }, { "epoch": 0.25833333333333336, "grad_norm": 11.642105102539062, "learning_rate": 1.529896907216495e-05, "loss": 0.3084, "num_tokens": 333117.0, "step": 775 }, { "epoch": 0.25866666666666666, "grad_norm": 19.976078033447266, "learning_rate": 1.5292096219931273e-05, "loss": 0.2998, "num_tokens": 333430.0, "step": 776 }, { "epoch": 0.259, "grad_norm": 30.33978843688965, "learning_rate": 1.5285223367697596e-05, "loss": 0.5052, "num_tokens": 333671.0, "step": 777 }, { "epoch": 0.25933333333333336, "grad_norm": 23.654518127441406, "learning_rate": 1.527835051546392e-05, "loss": 0.4566, "num_tokens": 334037.0, "step": 778 }, { "epoch": 0.25966666666666666, "grad_norm": 28.32822608947754, "learning_rate": 1.527147766323024e-05, "loss": 0.6004, "num_tokens": 334276.0, "step": 779 }, { "epoch": 0.26, "grad_norm": 16.385807037353516, "learning_rate": 1.5264604810996565e-05, "loss": 0.3745, "num_tokens": 334762.0, "step": 780 }, { "epoch": 0.26033333333333336, "grad_norm": 12.33930492401123, "learning_rate": 1.5257731958762888e-05, "loss": 0.29, "num_tokens": 335481.0, "step": 781 }, { "epoch": 0.26066666666666666, "grad_norm": 14.307756423950195, "learning_rate": 1.525085910652921e-05, "loss": 0.3041, "num_tokens": 336085.0, "step": 782 }, { "epoch": 0.261, "grad_norm": 13.300872802734375, "learning_rate": 1.5243986254295534e-05, "loss": 0.2637, "num_tokens": 336642.0, "step": 783 }, { "epoch": 0.2613333333333333, "grad_norm": 25.458715438842773, "learning_rate": 1.5237113402061857e-05, "loss": 0.4387, "num_tokens": 337042.0, "step": 784 }, { "epoch": 0.26166666666666666, "grad_norm": 21.464929580688477, "learning_rate": 1.523024054982818e-05, "loss": 0.3353, "num_tokens": 337413.0, "step": 785 }, { "epoch": 0.262, "grad_norm": 40.28292465209961, "learning_rate": 1.5223367697594503e-05, "loss": 0.5522, "num_tokens": 337850.0, "step": 786 }, { "epoch": 0.2623333333333333, "grad_norm": 13.954794883728027, "learning_rate": 1.5216494845360826e-05, "loss": 0.2605, "num_tokens": 338299.0, "step": 787 }, { "epoch": 0.26266666666666666, "grad_norm": 25.686100006103516, "learning_rate": 1.5209621993127149e-05, "loss": 0.6285, "num_tokens": 338592.0, "step": 788 }, { "epoch": 0.263, "grad_norm": 14.32227897644043, "learning_rate": 1.5202749140893472e-05, "loss": 0.3824, "num_tokens": 339124.0, "step": 789 }, { "epoch": 0.2633333333333333, "grad_norm": 16.064218521118164, "learning_rate": 1.5195876288659795e-05, "loss": 0.2449, "num_tokens": 339534.0, "step": 790 }, { "epoch": 0.26366666666666666, "grad_norm": 14.317425727844238, "learning_rate": 1.5189003436426118e-05, "loss": 0.2937, "num_tokens": 340084.0, "step": 791 }, { "epoch": 0.264, "grad_norm": 16.7224178314209, "learning_rate": 1.518213058419244e-05, "loss": 0.3202, "num_tokens": 340637.0, "step": 792 }, { "epoch": 0.2643333333333333, "grad_norm": 17.53285026550293, "learning_rate": 1.5175257731958764e-05, "loss": 0.3556, "num_tokens": 341024.0, "step": 793 }, { "epoch": 0.26466666666666666, "grad_norm": 19.1760196685791, "learning_rate": 1.5168384879725087e-05, "loss": 0.3959, "num_tokens": 341415.0, "step": 794 }, { "epoch": 0.265, "grad_norm": 45.55078125, "learning_rate": 1.516151202749141e-05, "loss": 0.4064, "num_tokens": 341789.0, "step": 795 }, { "epoch": 0.2653333333333333, "grad_norm": 15.751895904541016, "learning_rate": 1.5154639175257733e-05, "loss": 0.3361, "num_tokens": 342348.0, "step": 796 }, { "epoch": 0.26566666666666666, "grad_norm": 12.053816795349121, "learning_rate": 1.5147766323024056e-05, "loss": 0.2263, "num_tokens": 343123.0, "step": 797 }, { "epoch": 0.266, "grad_norm": 18.662853240966797, "learning_rate": 1.5140893470790379e-05, "loss": 0.3819, "num_tokens": 343508.0, "step": 798 }, { "epoch": 0.2663333333333333, "grad_norm": 48.60149002075195, "learning_rate": 1.5134020618556702e-05, "loss": 0.5416, "num_tokens": 343857.0, "step": 799 }, { "epoch": 0.26666666666666666, "grad_norm": 20.675565719604492, "learning_rate": 1.5127147766323025e-05, "loss": 0.3896, "num_tokens": 344334.0, "step": 800 }, { "epoch": 0.267, "grad_norm": 38.52623748779297, "learning_rate": 1.5120274914089348e-05, "loss": 0.582, "num_tokens": 344658.0, "step": 801 }, { "epoch": 0.2673333333333333, "grad_norm": 13.260730743408203, "learning_rate": 1.511340206185567e-05, "loss": 0.174, "num_tokens": 345091.0, "step": 802 }, { "epoch": 0.26766666666666666, "grad_norm": 33.06178283691406, "learning_rate": 1.5106529209621994e-05, "loss": 0.5296, "num_tokens": 345335.0, "step": 803 }, { "epoch": 0.268, "grad_norm": 12.364883422851562, "learning_rate": 1.5099656357388317e-05, "loss": 0.2328, "num_tokens": 345875.0, "step": 804 }, { "epoch": 0.2683333333333333, "grad_norm": 25.61958122253418, "learning_rate": 1.509278350515464e-05, "loss": 0.3956, "num_tokens": 346193.0, "step": 805 }, { "epoch": 0.26866666666666666, "grad_norm": 17.153749465942383, "learning_rate": 1.5085910652920963e-05, "loss": 0.2581, "num_tokens": 346690.0, "step": 806 }, { "epoch": 0.269, "grad_norm": 17.54041862487793, "learning_rate": 1.5079037800687286e-05, "loss": 0.4982, "num_tokens": 347153.0, "step": 807 }, { "epoch": 0.2693333333333333, "grad_norm": 21.964996337890625, "learning_rate": 1.5072164948453609e-05, "loss": 0.4371, "num_tokens": 347478.0, "step": 808 }, { "epoch": 0.26966666666666667, "grad_norm": 30.839412689208984, "learning_rate": 1.5065292096219932e-05, "loss": 0.139, "num_tokens": 347873.0, "step": 809 }, { "epoch": 0.27, "grad_norm": 19.678762435913086, "learning_rate": 1.5058419243986255e-05, "loss": 0.3685, "num_tokens": 348303.0, "step": 810 }, { "epoch": 0.2703333333333333, "grad_norm": 20.570642471313477, "learning_rate": 1.5051546391752578e-05, "loss": 0.2609, "num_tokens": 348649.0, "step": 811 }, { "epoch": 0.27066666666666667, "grad_norm": 12.996740341186523, "learning_rate": 1.50446735395189e-05, "loss": 0.2684, "num_tokens": 349287.0, "step": 812 }, { "epoch": 0.271, "grad_norm": 22.416208267211914, "learning_rate": 1.5037800687285224e-05, "loss": 0.4389, "num_tokens": 349558.0, "step": 813 }, { "epoch": 0.2713333333333333, "grad_norm": 17.77952766418457, "learning_rate": 1.5030927835051547e-05, "loss": 0.2643, "num_tokens": 349921.0, "step": 814 }, { "epoch": 0.27166666666666667, "grad_norm": 21.7767391204834, "learning_rate": 1.502405498281787e-05, "loss": 0.4409, "num_tokens": 350208.0, "step": 815 }, { "epoch": 0.272, "grad_norm": 14.431796073913574, "learning_rate": 1.5017182130584193e-05, "loss": 0.2243, "num_tokens": 350538.0, "step": 816 }, { "epoch": 0.2723333333333333, "grad_norm": 13.459674835205078, "learning_rate": 1.5010309278350516e-05, "loss": 0.2362, "num_tokens": 350999.0, "step": 817 }, { "epoch": 0.27266666666666667, "grad_norm": 35.31993103027344, "learning_rate": 1.5003436426116839e-05, "loss": 0.7094, "num_tokens": 351257.0, "step": 818 }, { "epoch": 0.273, "grad_norm": 22.469995498657227, "learning_rate": 1.4996563573883164e-05, "loss": 0.426, "num_tokens": 351712.0, "step": 819 }, { "epoch": 0.2733333333333333, "grad_norm": 29.062036514282227, "learning_rate": 1.4989690721649487e-05, "loss": 0.4602, "num_tokens": 352095.0, "step": 820 }, { "epoch": 0.27366666666666667, "grad_norm": 26.834936141967773, "learning_rate": 1.498281786941581e-05, "loss": 0.4309, "num_tokens": 352426.0, "step": 821 }, { "epoch": 0.274, "grad_norm": 14.26888370513916, "learning_rate": 1.4975945017182133e-05, "loss": 0.2403, "num_tokens": 352985.0, "step": 822 }, { "epoch": 0.2743333333333333, "grad_norm": 25.372650146484375, "learning_rate": 1.4969072164948456e-05, "loss": 0.5458, "num_tokens": 353289.0, "step": 823 }, { "epoch": 0.27466666666666667, "grad_norm": 27.766551971435547, "learning_rate": 1.4962199312714779e-05, "loss": 0.5628, "num_tokens": 353661.0, "step": 824 }, { "epoch": 0.275, "grad_norm": 14.510455131530762, "learning_rate": 1.4955326460481102e-05, "loss": 0.3258, "num_tokens": 354218.0, "step": 825 }, { "epoch": 0.2753333333333333, "grad_norm": 16.39808464050293, "learning_rate": 1.4948453608247425e-05, "loss": 0.3215, "num_tokens": 354701.0, "step": 826 }, { "epoch": 0.27566666666666667, "grad_norm": 16.342926025390625, "learning_rate": 1.4941580756013748e-05, "loss": 0.3711, "num_tokens": 355047.0, "step": 827 }, { "epoch": 0.276, "grad_norm": 68.38653564453125, "learning_rate": 1.493470790378007e-05, "loss": 0.6971, "num_tokens": 355394.0, "step": 828 }, { "epoch": 0.2763333333333333, "grad_norm": 16.345617294311523, "learning_rate": 1.4927835051546394e-05, "loss": 0.2746, "num_tokens": 355830.0, "step": 829 }, { "epoch": 0.27666666666666667, "grad_norm": 24.229543685913086, "learning_rate": 1.4920962199312717e-05, "loss": 0.494, "num_tokens": 356253.0, "step": 830 }, { "epoch": 0.277, "grad_norm": 28.375097274780273, "learning_rate": 1.491408934707904e-05, "loss": 0.4541, "num_tokens": 356480.0, "step": 831 }, { "epoch": 0.2773333333333333, "grad_norm": 33.40117263793945, "learning_rate": 1.4907216494845363e-05, "loss": 0.6003, "num_tokens": 356816.0, "step": 832 }, { "epoch": 0.2776666666666667, "grad_norm": 17.077959060668945, "learning_rate": 1.4900343642611686e-05, "loss": 0.3437, "num_tokens": 357335.0, "step": 833 }, { "epoch": 0.278, "grad_norm": 15.912385940551758, "learning_rate": 1.4893470790378009e-05, "loss": 0.3461, "num_tokens": 357848.0, "step": 834 }, { "epoch": 0.2783333333333333, "grad_norm": 14.414732933044434, "learning_rate": 1.4886597938144332e-05, "loss": 0.3229, "num_tokens": 358400.0, "step": 835 }, { "epoch": 0.2786666666666667, "grad_norm": 15.198616027832031, "learning_rate": 1.4879725085910655e-05, "loss": 0.3212, "num_tokens": 359074.0, "step": 836 }, { "epoch": 0.279, "grad_norm": 44.504234313964844, "learning_rate": 1.4872852233676978e-05, "loss": 0.265, "num_tokens": 359596.0, "step": 837 }, { "epoch": 0.2793333333333333, "grad_norm": 16.92096519470215, "learning_rate": 1.48659793814433e-05, "loss": 0.2591, "num_tokens": 359934.0, "step": 838 }, { "epoch": 0.2796666666666667, "grad_norm": 28.479562759399414, "learning_rate": 1.4859106529209624e-05, "loss": 0.5398, "num_tokens": 360167.0, "step": 839 }, { "epoch": 0.28, "grad_norm": 97.97335815429688, "learning_rate": 1.4852233676975947e-05, "loss": 0.3747, "num_tokens": 360462.0, "step": 840 }, { "epoch": 0.2803333333333333, "grad_norm": 17.50348663330078, "learning_rate": 1.484536082474227e-05, "loss": 0.2377, "num_tokens": 360860.0, "step": 841 }, { "epoch": 0.2806666666666667, "grad_norm": 18.633480072021484, "learning_rate": 1.4838487972508593e-05, "loss": 0.3426, "num_tokens": 361258.0, "step": 842 }, { "epoch": 0.281, "grad_norm": 24.361530303955078, "learning_rate": 1.4831615120274916e-05, "loss": 0.5088, "num_tokens": 361657.0, "step": 843 }, { "epoch": 0.2813333333333333, "grad_norm": 19.666282653808594, "learning_rate": 1.4824742268041239e-05, "loss": 0.3902, "num_tokens": 362060.0, "step": 844 }, { "epoch": 0.2816666666666667, "grad_norm": 29.547931671142578, "learning_rate": 1.4817869415807562e-05, "loss": 0.6722, "num_tokens": 362354.0, "step": 845 }, { "epoch": 0.282, "grad_norm": 35.195457458496094, "learning_rate": 1.4810996563573885e-05, "loss": 0.4198, "num_tokens": 362843.0, "step": 846 }, { "epoch": 0.2823333333333333, "grad_norm": 14.03990364074707, "learning_rate": 1.4804123711340208e-05, "loss": 0.2495, "num_tokens": 363274.0, "step": 847 }, { "epoch": 0.2826666666666667, "grad_norm": 22.356473922729492, "learning_rate": 1.479725085910653e-05, "loss": 0.4288, "num_tokens": 363551.0, "step": 848 }, { "epoch": 0.283, "grad_norm": 18.323884963989258, "learning_rate": 1.4790378006872854e-05, "loss": 0.3777, "num_tokens": 363988.0, "step": 849 }, { "epoch": 0.2833333333333333, "grad_norm": 15.62744426727295, "learning_rate": 1.4783505154639177e-05, "loss": 0.3274, "num_tokens": 364666.0, "step": 850 }, { "epoch": 0.2836666666666667, "grad_norm": 16.845869064331055, "learning_rate": 1.47766323024055e-05, "loss": 0.2867, "num_tokens": 364962.0, "step": 851 }, { "epoch": 0.284, "grad_norm": 15.117484092712402, "learning_rate": 1.4769759450171823e-05, "loss": 0.3727, "num_tokens": 365458.0, "step": 852 }, { "epoch": 0.2843333333333333, "grad_norm": 17.32691764831543, "learning_rate": 1.4762886597938146e-05, "loss": 0.2651, "num_tokens": 366140.0, "step": 853 }, { "epoch": 0.2846666666666667, "grad_norm": 19.02428436279297, "learning_rate": 1.4756013745704469e-05, "loss": 0.3471, "num_tokens": 366565.0, "step": 854 }, { "epoch": 0.285, "grad_norm": 19.83327293395996, "learning_rate": 1.4749140893470792e-05, "loss": 0.3863, "num_tokens": 366847.0, "step": 855 }, { "epoch": 0.2853333333333333, "grad_norm": 11.027931213378906, "learning_rate": 1.4742268041237115e-05, "loss": 0.1626, "num_tokens": 367491.0, "step": 856 }, { "epoch": 0.2856666666666667, "grad_norm": 9.827354431152344, "learning_rate": 1.4735395189003438e-05, "loss": 0.1954, "num_tokens": 368217.0, "step": 857 }, { "epoch": 0.286, "grad_norm": 17.276004791259766, "learning_rate": 1.4728522336769761e-05, "loss": 0.4189, "num_tokens": 368664.0, "step": 858 }, { "epoch": 0.28633333333333333, "grad_norm": 17.08719825744629, "learning_rate": 1.4721649484536084e-05, "loss": 0.2372, "num_tokens": 369184.0, "step": 859 }, { "epoch": 0.2866666666666667, "grad_norm": 29.694297790527344, "learning_rate": 1.4714776632302407e-05, "loss": 0.3356, "num_tokens": 369425.0, "step": 860 }, { "epoch": 0.287, "grad_norm": 17.37468147277832, "learning_rate": 1.470790378006873e-05, "loss": 0.321, "num_tokens": 369768.0, "step": 861 }, { "epoch": 0.28733333333333333, "grad_norm": 23.895526885986328, "learning_rate": 1.4701030927835055e-05, "loss": 0.3376, "num_tokens": 370118.0, "step": 862 }, { "epoch": 0.2876666666666667, "grad_norm": 48.46590042114258, "learning_rate": 1.4694158075601378e-05, "loss": 0.4768, "num_tokens": 370393.0, "step": 863 }, { "epoch": 0.288, "grad_norm": 23.80722999572754, "learning_rate": 1.4687285223367697e-05, "loss": 0.5628, "num_tokens": 370703.0, "step": 864 }, { "epoch": 0.28833333333333333, "grad_norm": 13.044955253601074, "learning_rate": 1.468041237113402e-05, "loss": 0.2607, "num_tokens": 371388.0, "step": 865 }, { "epoch": 0.2886666666666667, "grad_norm": 13.574700355529785, "learning_rate": 1.4673539518900343e-05, "loss": 0.248, "num_tokens": 371939.0, "step": 866 }, { "epoch": 0.289, "grad_norm": 12.63620376586914, "learning_rate": 1.4666666666666666e-05, "loss": 0.2501, "num_tokens": 372535.0, "step": 867 }, { "epoch": 0.28933333333333333, "grad_norm": 21.511415481567383, "learning_rate": 1.465979381443299e-05, "loss": 0.4227, "num_tokens": 372904.0, "step": 868 }, { "epoch": 0.2896666666666667, "grad_norm": 9.129487991333008, "learning_rate": 1.4652920962199312e-05, "loss": 0.1894, "num_tokens": 373773.0, "step": 869 }, { "epoch": 0.29, "grad_norm": 35.88633728027344, "learning_rate": 1.4646048109965635e-05, "loss": 0.7551, "num_tokens": 373992.0, "step": 870 }, { "epoch": 0.29033333333333333, "grad_norm": 19.181859970092773, "learning_rate": 1.4639175257731958e-05, "loss": 0.4361, "num_tokens": 374356.0, "step": 871 }, { "epoch": 0.2906666666666667, "grad_norm": 17.528438568115234, "learning_rate": 1.4632302405498281e-05, "loss": 0.2796, "num_tokens": 374723.0, "step": 872 }, { "epoch": 0.291, "grad_norm": 20.443140029907227, "learning_rate": 1.4625429553264604e-05, "loss": 0.4473, "num_tokens": 375117.0, "step": 873 }, { "epoch": 0.29133333333333333, "grad_norm": 24.61357307434082, "learning_rate": 1.4618556701030927e-05, "loss": 0.4728, "num_tokens": 375431.0, "step": 874 }, { "epoch": 0.2916666666666667, "grad_norm": 18.830745697021484, "learning_rate": 1.4611683848797252e-05, "loss": 0.2353, "num_tokens": 375975.0, "step": 875 }, { "epoch": 0.292, "grad_norm": 11.653755187988281, "learning_rate": 1.4604810996563575e-05, "loss": 0.2029, "num_tokens": 376454.0, "step": 876 }, { "epoch": 0.29233333333333333, "grad_norm": 35.598365783691406, "learning_rate": 1.4597938144329898e-05, "loss": 0.7729, "num_tokens": 376717.0, "step": 877 }, { "epoch": 0.2926666666666667, "grad_norm": 25.875581741333008, "learning_rate": 1.4591065292096221e-05, "loss": 0.4225, "num_tokens": 377009.0, "step": 878 }, { "epoch": 0.293, "grad_norm": 16.342514038085938, "learning_rate": 1.4584192439862544e-05, "loss": 0.3333, "num_tokens": 377398.0, "step": 879 }, { "epoch": 0.29333333333333333, "grad_norm": 19.744165420532227, "learning_rate": 1.4577319587628867e-05, "loss": 0.4116, "num_tokens": 377754.0, "step": 880 }, { "epoch": 0.2936666666666667, "grad_norm": 27.437397003173828, "learning_rate": 1.457044673539519e-05, "loss": 0.5471, "num_tokens": 378010.0, "step": 881 }, { "epoch": 0.294, "grad_norm": 40.0157356262207, "learning_rate": 1.4563573883161513e-05, "loss": 0.9013, "num_tokens": 378249.0, "step": 882 }, { "epoch": 0.29433333333333334, "grad_norm": 23.208547592163086, "learning_rate": 1.4556701030927836e-05, "loss": 0.4567, "num_tokens": 378642.0, "step": 883 }, { "epoch": 0.2946666666666667, "grad_norm": 21.061880111694336, "learning_rate": 1.4549828178694159e-05, "loss": 0.3805, "num_tokens": 378917.0, "step": 884 }, { "epoch": 0.295, "grad_norm": 11.891819953918457, "learning_rate": 1.4542955326460482e-05, "loss": 0.1899, "num_tokens": 379497.0, "step": 885 }, { "epoch": 0.29533333333333334, "grad_norm": 28.061649322509766, "learning_rate": 1.4536082474226805e-05, "loss": 0.5087, "num_tokens": 379727.0, "step": 886 }, { "epoch": 0.2956666666666667, "grad_norm": 12.462547302246094, "learning_rate": 1.4529209621993128e-05, "loss": 0.2776, "num_tokens": 380389.0, "step": 887 }, { "epoch": 0.296, "grad_norm": 12.054616928100586, "learning_rate": 1.4522336769759451e-05, "loss": 0.2263, "num_tokens": 380907.0, "step": 888 }, { "epoch": 0.29633333333333334, "grad_norm": 26.074344635009766, "learning_rate": 1.4515463917525774e-05, "loss": 0.5742, "num_tokens": 381160.0, "step": 889 }, { "epoch": 0.2966666666666667, "grad_norm": 23.982807159423828, "learning_rate": 1.4508591065292097e-05, "loss": 0.4735, "num_tokens": 381464.0, "step": 890 }, { "epoch": 0.297, "grad_norm": 20.593103408813477, "learning_rate": 1.450171821305842e-05, "loss": 0.3962, "num_tokens": 381854.0, "step": 891 }, { "epoch": 0.29733333333333334, "grad_norm": 14.287759780883789, "learning_rate": 1.4494845360824743e-05, "loss": 0.2299, "num_tokens": 382432.0, "step": 892 }, { "epoch": 0.2976666666666667, "grad_norm": 25.786909103393555, "learning_rate": 1.4487972508591066e-05, "loss": 0.6598, "num_tokens": 382799.0, "step": 893 }, { "epoch": 0.298, "grad_norm": 28.809375762939453, "learning_rate": 1.448109965635739e-05, "loss": 0.5358, "num_tokens": 383064.0, "step": 894 }, { "epoch": 0.29833333333333334, "grad_norm": 20.068037033081055, "learning_rate": 1.4474226804123712e-05, "loss": 0.5087, "num_tokens": 383565.0, "step": 895 }, { "epoch": 0.2986666666666667, "grad_norm": 30.478626251220703, "learning_rate": 1.4467353951890035e-05, "loss": 0.2025, "num_tokens": 384068.0, "step": 896 }, { "epoch": 0.299, "grad_norm": 21.01751708984375, "learning_rate": 1.4460481099656358e-05, "loss": 0.4107, "num_tokens": 384452.0, "step": 897 }, { "epoch": 0.29933333333333334, "grad_norm": 15.11526107788086, "learning_rate": 1.4453608247422681e-05, "loss": 0.2865, "num_tokens": 384933.0, "step": 898 }, { "epoch": 0.2996666666666667, "grad_norm": 31.61366081237793, "learning_rate": 1.4446735395189004e-05, "loss": 0.4767, "num_tokens": 385303.0, "step": 899 }, { "epoch": 0.3, "grad_norm": 20.569541931152344, "learning_rate": 1.4439862542955327e-05, "loss": 0.2892, "num_tokens": 385633.0, "step": 900 }, { "epoch": 0.30033333333333334, "grad_norm": 49.272064208984375, "learning_rate": 1.443298969072165e-05, "loss": 0.4729, "num_tokens": 386063.0, "step": 901 }, { "epoch": 0.3006666666666667, "grad_norm": 25.37062644958496, "learning_rate": 1.4426116838487973e-05, "loss": 0.4257, "num_tokens": 386293.0, "step": 902 }, { "epoch": 0.301, "grad_norm": 19.69419288635254, "learning_rate": 1.4419243986254296e-05, "loss": 0.3473, "num_tokens": 386741.0, "step": 903 }, { "epoch": 0.30133333333333334, "grad_norm": 15.337982177734375, "learning_rate": 1.441237113402062e-05, "loss": 0.2505, "num_tokens": 387221.0, "step": 904 }, { "epoch": 0.3016666666666667, "grad_norm": 16.588624954223633, "learning_rate": 1.4405498281786942e-05, "loss": 0.3723, "num_tokens": 387729.0, "step": 905 }, { "epoch": 0.302, "grad_norm": 25.34275245666504, "learning_rate": 1.4398625429553265e-05, "loss": 0.2401, "num_tokens": 388181.0, "step": 906 }, { "epoch": 0.30233333333333334, "grad_norm": 12.155566215515137, "learning_rate": 1.4391752577319588e-05, "loss": 0.1603, "num_tokens": 388602.0, "step": 907 }, { "epoch": 0.30266666666666664, "grad_norm": 14.80554485321045, "learning_rate": 1.4384879725085911e-05, "loss": 0.2813, "num_tokens": 389034.0, "step": 908 }, { "epoch": 0.303, "grad_norm": 24.34110450744629, "learning_rate": 1.4378006872852234e-05, "loss": 0.4571, "num_tokens": 389404.0, "step": 909 }, { "epoch": 0.30333333333333334, "grad_norm": 17.63836669921875, "learning_rate": 1.4371134020618557e-05, "loss": 0.3921, "num_tokens": 389824.0, "step": 910 }, { "epoch": 0.30366666666666664, "grad_norm": 74.6668701171875, "learning_rate": 1.436426116838488e-05, "loss": 0.6381, "num_tokens": 390164.0, "step": 911 }, { "epoch": 0.304, "grad_norm": 11.59835433959961, "learning_rate": 1.4357388316151203e-05, "loss": 0.2053, "num_tokens": 390786.0, "step": 912 }, { "epoch": 0.30433333333333334, "grad_norm": 11.381248474121094, "learning_rate": 1.4350515463917526e-05, "loss": 0.2756, "num_tokens": 391253.0, "step": 913 }, { "epoch": 0.30466666666666664, "grad_norm": 10.173454284667969, "learning_rate": 1.434364261168385e-05, "loss": 0.1702, "num_tokens": 391897.0, "step": 914 }, { "epoch": 0.305, "grad_norm": 31.035694122314453, "learning_rate": 1.4336769759450172e-05, "loss": 0.726, "num_tokens": 392192.0, "step": 915 }, { "epoch": 0.30533333333333335, "grad_norm": 22.364534378051758, "learning_rate": 1.4329896907216495e-05, "loss": 0.4757, "num_tokens": 392515.0, "step": 916 }, { "epoch": 0.30566666666666664, "grad_norm": 12.950790405273438, "learning_rate": 1.4323024054982818e-05, "loss": 0.3339, "num_tokens": 393208.0, "step": 917 }, { "epoch": 0.306, "grad_norm": 16.238161087036133, "learning_rate": 1.4316151202749143e-05, "loss": 0.3113, "num_tokens": 393589.0, "step": 918 }, { "epoch": 0.30633333333333335, "grad_norm": 22.07794761657715, "learning_rate": 1.4309278350515466e-05, "loss": 0.4229, "num_tokens": 394043.0, "step": 919 }, { "epoch": 0.30666666666666664, "grad_norm": 17.878917694091797, "learning_rate": 1.4302405498281789e-05, "loss": 0.4004, "num_tokens": 394557.0, "step": 920 }, { "epoch": 0.307, "grad_norm": 13.895441055297852, "learning_rate": 1.4295532646048112e-05, "loss": 0.2434, "num_tokens": 395015.0, "step": 921 }, { "epoch": 0.30733333333333335, "grad_norm": 36.776268005371094, "learning_rate": 1.4288659793814435e-05, "loss": 0.8048, "num_tokens": 395196.0, "step": 922 }, { "epoch": 0.30766666666666664, "grad_norm": 18.817764282226562, "learning_rate": 1.4281786941580758e-05, "loss": 0.323, "num_tokens": 395490.0, "step": 923 }, { "epoch": 0.308, "grad_norm": 17.413759231567383, "learning_rate": 1.4274914089347081e-05, "loss": 0.5028, "num_tokens": 395998.0, "step": 924 }, { "epoch": 0.30833333333333335, "grad_norm": 17.440298080444336, "learning_rate": 1.4268041237113404e-05, "loss": 0.3229, "num_tokens": 396648.0, "step": 925 }, { "epoch": 0.30866666666666664, "grad_norm": 12.16079330444336, "learning_rate": 1.4261168384879727e-05, "loss": 0.211, "num_tokens": 397097.0, "step": 926 }, { "epoch": 0.309, "grad_norm": 19.623544692993164, "learning_rate": 1.425429553264605e-05, "loss": 0.2938, "num_tokens": 397455.0, "step": 927 }, { "epoch": 0.30933333333333335, "grad_norm": 45.166542053222656, "learning_rate": 1.4247422680412373e-05, "loss": 0.5855, "num_tokens": 397705.0, "step": 928 }, { "epoch": 0.30966666666666665, "grad_norm": 28.85155487060547, "learning_rate": 1.4240549828178696e-05, "loss": 0.5186, "num_tokens": 398102.0, "step": 929 }, { "epoch": 0.31, "grad_norm": 19.012895584106445, "learning_rate": 1.423367697594502e-05, "loss": 0.347, "num_tokens": 398513.0, "step": 930 }, { "epoch": 0.31033333333333335, "grad_norm": 19.05544090270996, "learning_rate": 1.4226804123711342e-05, "loss": 0.327, "num_tokens": 398871.0, "step": 931 }, { "epoch": 0.31066666666666665, "grad_norm": 17.67155647277832, "learning_rate": 1.4219931271477665e-05, "loss": 0.3563, "num_tokens": 399226.0, "step": 932 }, { "epoch": 0.311, "grad_norm": 25.05889892578125, "learning_rate": 1.4213058419243988e-05, "loss": 0.4378, "num_tokens": 399610.0, "step": 933 }, { "epoch": 0.31133333333333335, "grad_norm": 34.199954986572266, "learning_rate": 1.4206185567010311e-05, "loss": 0.5141, "num_tokens": 399811.0, "step": 934 }, { "epoch": 0.31166666666666665, "grad_norm": 19.06647300720215, "learning_rate": 1.4199312714776634e-05, "loss": 0.4357, "num_tokens": 400215.0, "step": 935 }, { "epoch": 0.312, "grad_norm": 30.036083221435547, "learning_rate": 1.4192439862542957e-05, "loss": 0.7423, "num_tokens": 400472.0, "step": 936 }, { "epoch": 0.31233333333333335, "grad_norm": 13.959113121032715, "learning_rate": 1.418556701030928e-05, "loss": 0.2346, "num_tokens": 400853.0, "step": 937 }, { "epoch": 0.31266666666666665, "grad_norm": 14.052959442138672, "learning_rate": 1.4178694158075603e-05, "loss": 0.37, "num_tokens": 401493.0, "step": 938 }, { "epoch": 0.313, "grad_norm": 16.286882400512695, "learning_rate": 1.4171821305841926e-05, "loss": 0.3065, "num_tokens": 401878.0, "step": 939 }, { "epoch": 0.31333333333333335, "grad_norm": 17.96169662475586, "learning_rate": 1.416494845360825e-05, "loss": 0.5072, "num_tokens": 402409.0, "step": 940 }, { "epoch": 0.31366666666666665, "grad_norm": 19.418127059936523, "learning_rate": 1.4158075601374572e-05, "loss": 0.333, "num_tokens": 402668.0, "step": 941 }, { "epoch": 0.314, "grad_norm": 20.202550888061523, "learning_rate": 1.4151202749140895e-05, "loss": 0.2688, "num_tokens": 403053.0, "step": 942 }, { "epoch": 0.31433333333333335, "grad_norm": 20.56338119506836, "learning_rate": 1.4144329896907218e-05, "loss": 0.3185, "num_tokens": 403476.0, "step": 943 }, { "epoch": 0.31466666666666665, "grad_norm": 27.952281951904297, "learning_rate": 1.4137457044673541e-05, "loss": 0.5243, "num_tokens": 403746.0, "step": 944 }, { "epoch": 0.315, "grad_norm": 35.054134368896484, "learning_rate": 1.4130584192439864e-05, "loss": 0.6637, "num_tokens": 403953.0, "step": 945 }, { "epoch": 0.31533333333333335, "grad_norm": 18.699188232421875, "learning_rate": 1.4123711340206187e-05, "loss": 0.2905, "num_tokens": 404420.0, "step": 946 }, { "epoch": 0.31566666666666665, "grad_norm": 20.458755493164062, "learning_rate": 1.411683848797251e-05, "loss": 0.4397, "num_tokens": 404750.0, "step": 947 }, { "epoch": 0.316, "grad_norm": 20.984210968017578, "learning_rate": 1.4109965635738833e-05, "loss": 0.4568, "num_tokens": 405159.0, "step": 948 }, { "epoch": 0.31633333333333336, "grad_norm": 15.773835182189941, "learning_rate": 1.4103092783505156e-05, "loss": 0.2947, "num_tokens": 405648.0, "step": 949 }, { "epoch": 0.31666666666666665, "grad_norm": 20.232559204101562, "learning_rate": 1.409621993127148e-05, "loss": 0.3842, "num_tokens": 406027.0, "step": 950 }, { "epoch": 0.317, "grad_norm": 16.758657455444336, "learning_rate": 1.4089347079037802e-05, "loss": 0.3707, "num_tokens": 406434.0, "step": 951 }, { "epoch": 0.31733333333333336, "grad_norm": 14.11952018737793, "learning_rate": 1.4082474226804125e-05, "loss": 0.2639, "num_tokens": 406864.0, "step": 952 }, { "epoch": 0.31766666666666665, "grad_norm": 24.145830154418945, "learning_rate": 1.4075601374570448e-05, "loss": 0.4958, "num_tokens": 407228.0, "step": 953 }, { "epoch": 0.318, "grad_norm": 13.341742515563965, "learning_rate": 1.4068728522336771e-05, "loss": 0.2057, "num_tokens": 407763.0, "step": 954 }, { "epoch": 0.31833333333333336, "grad_norm": 13.569196701049805, "learning_rate": 1.4061855670103093e-05, "loss": 0.2781, "num_tokens": 408378.0, "step": 955 }, { "epoch": 0.31866666666666665, "grad_norm": 19.835521697998047, "learning_rate": 1.4054982817869416e-05, "loss": 0.335, "num_tokens": 408731.0, "step": 956 }, { "epoch": 0.319, "grad_norm": 9.8268461227417, "learning_rate": 1.4048109965635739e-05, "loss": 0.1854, "num_tokens": 409566.0, "step": 957 }, { "epoch": 0.31933333333333336, "grad_norm": 21.655195236206055, "learning_rate": 1.4041237113402062e-05, "loss": 0.4118, "num_tokens": 409808.0, "step": 958 }, { "epoch": 0.31966666666666665, "grad_norm": 14.131196022033691, "learning_rate": 1.4034364261168385e-05, "loss": 0.2261, "num_tokens": 410272.0, "step": 959 }, { "epoch": 0.32, "grad_norm": 12.595651626586914, "learning_rate": 1.4027491408934708e-05, "loss": 0.2413, "num_tokens": 410794.0, "step": 960 }, { "epoch": 0.32033333333333336, "grad_norm": 17.646638870239258, "learning_rate": 1.402061855670103e-05, "loss": 0.3798, "num_tokens": 411312.0, "step": 961 }, { "epoch": 0.32066666666666666, "grad_norm": 21.704322814941406, "learning_rate": 1.4013745704467354e-05, "loss": 0.626, "num_tokens": 411751.0, "step": 962 }, { "epoch": 0.321, "grad_norm": 19.257381439208984, "learning_rate": 1.4006872852233677e-05, "loss": 0.3018, "num_tokens": 412147.0, "step": 963 }, { "epoch": 0.32133333333333336, "grad_norm": 17.491106033325195, "learning_rate": 1.4e-05, "loss": 0.3581, "num_tokens": 412579.0, "step": 964 }, { "epoch": 0.32166666666666666, "grad_norm": 35.641780853271484, "learning_rate": 1.3993127147766323e-05, "loss": 0.7083, "num_tokens": 412846.0, "step": 965 }, { "epoch": 0.322, "grad_norm": 20.685237884521484, "learning_rate": 1.3986254295532646e-05, "loss": 0.4109, "num_tokens": 413140.0, "step": 966 }, { "epoch": 0.32233333333333336, "grad_norm": 34.42707443237305, "learning_rate": 1.3979381443298969e-05, "loss": 0.5327, "num_tokens": 413364.0, "step": 967 }, { "epoch": 0.32266666666666666, "grad_norm": 15.870885848999023, "learning_rate": 1.3972508591065292e-05, "loss": 0.35, "num_tokens": 413875.0, "step": 968 }, { "epoch": 0.323, "grad_norm": 22.320545196533203, "learning_rate": 1.3965635738831615e-05, "loss": 0.3662, "num_tokens": 414208.0, "step": 969 }, { "epoch": 0.3233333333333333, "grad_norm": 17.563636779785156, "learning_rate": 1.3958762886597938e-05, "loss": 0.2838, "num_tokens": 414583.0, "step": 970 }, { "epoch": 0.32366666666666666, "grad_norm": 12.943824768066406, "learning_rate": 1.3951890034364261e-05, "loss": 0.2721, "num_tokens": 415096.0, "step": 971 }, { "epoch": 0.324, "grad_norm": 26.100492477416992, "learning_rate": 1.3945017182130584e-05, "loss": 0.659, "num_tokens": 415448.0, "step": 972 }, { "epoch": 0.3243333333333333, "grad_norm": 36.59056854248047, "learning_rate": 1.3938144329896907e-05, "loss": 0.657, "num_tokens": 415687.0, "step": 973 }, { "epoch": 0.32466666666666666, "grad_norm": 18.05779457092285, "learning_rate": 1.3931271477663232e-05, "loss": 0.354, "num_tokens": 416142.0, "step": 974 }, { "epoch": 0.325, "grad_norm": 13.02901554107666, "learning_rate": 1.3924398625429555e-05, "loss": 0.391, "num_tokens": 416908.0, "step": 975 }, { "epoch": 0.3253333333333333, "grad_norm": 16.753616333007812, "learning_rate": 1.3917525773195878e-05, "loss": 0.3008, "num_tokens": 417305.0, "step": 976 }, { "epoch": 0.32566666666666666, "grad_norm": 21.20567512512207, "learning_rate": 1.39106529209622e-05, "loss": 0.4795, "num_tokens": 417661.0, "step": 977 }, { "epoch": 0.326, "grad_norm": 18.598764419555664, "learning_rate": 1.3903780068728524e-05, "loss": 0.4194, "num_tokens": 418043.0, "step": 978 }, { "epoch": 0.3263333333333333, "grad_norm": 12.596274375915527, "learning_rate": 1.3896907216494847e-05, "loss": 0.2611, "num_tokens": 418624.0, "step": 979 }, { "epoch": 0.32666666666666666, "grad_norm": 23.53544807434082, "learning_rate": 1.389003436426117e-05, "loss": 0.4169, "num_tokens": 419090.0, "step": 980 }, { "epoch": 0.327, "grad_norm": 19.88063621520996, "learning_rate": 1.3883161512027493e-05, "loss": 0.5508, "num_tokens": 419610.0, "step": 981 }, { "epoch": 0.3273333333333333, "grad_norm": 23.771339416503906, "learning_rate": 1.3876288659793816e-05, "loss": 0.424, "num_tokens": 419959.0, "step": 982 }, { "epoch": 0.32766666666666666, "grad_norm": 11.378881454467773, "learning_rate": 1.3869415807560139e-05, "loss": 0.2206, "num_tokens": 420638.0, "step": 983 }, { "epoch": 0.328, "grad_norm": 12.103583335876465, "learning_rate": 1.3862542955326462e-05, "loss": 0.2233, "num_tokens": 421307.0, "step": 984 }, { "epoch": 0.3283333333333333, "grad_norm": 16.072063446044922, "learning_rate": 1.3855670103092785e-05, "loss": 0.4011, "num_tokens": 421784.0, "step": 985 }, { "epoch": 0.32866666666666666, "grad_norm": 23.159765243530273, "learning_rate": 1.3848797250859108e-05, "loss": 0.5065, "num_tokens": 422064.0, "step": 986 }, { "epoch": 0.329, "grad_norm": 19.179716110229492, "learning_rate": 1.384192439862543e-05, "loss": 0.3996, "num_tokens": 422479.0, "step": 987 }, { "epoch": 0.3293333333333333, "grad_norm": 16.648754119873047, "learning_rate": 1.3835051546391754e-05, "loss": 0.3339, "num_tokens": 423301.0, "step": 988 }, { "epoch": 0.32966666666666666, "grad_norm": 10.455439567565918, "learning_rate": 1.3828178694158077e-05, "loss": 0.2246, "num_tokens": 423821.0, "step": 989 }, { "epoch": 0.33, "grad_norm": 23.588642120361328, "learning_rate": 1.38213058419244e-05, "loss": 0.4892, "num_tokens": 424264.0, "step": 990 }, { "epoch": 0.3303333333333333, "grad_norm": 27.395381927490234, "learning_rate": 1.3814432989690723e-05, "loss": 0.3931, "num_tokens": 424691.0, "step": 991 }, { "epoch": 0.33066666666666666, "grad_norm": 17.08598518371582, "learning_rate": 1.3807560137457046e-05, "loss": 0.3103, "num_tokens": 425232.0, "step": 992 }, { "epoch": 0.331, "grad_norm": 26.323030471801758, "learning_rate": 1.3800687285223369e-05, "loss": 0.6882, "num_tokens": 425523.0, "step": 993 }, { "epoch": 0.3313333333333333, "grad_norm": 23.248016357421875, "learning_rate": 1.3793814432989692e-05, "loss": 0.3801, "num_tokens": 425822.0, "step": 994 }, { "epoch": 0.33166666666666667, "grad_norm": 31.338581085205078, "learning_rate": 1.3786941580756015e-05, "loss": 0.4892, "num_tokens": 426161.0, "step": 995 }, { "epoch": 0.332, "grad_norm": 33.51223373413086, "learning_rate": 1.3780068728522338e-05, "loss": 0.457, "num_tokens": 426419.0, "step": 996 }, { "epoch": 0.3323333333333333, "grad_norm": 22.473987579345703, "learning_rate": 1.377319587628866e-05, "loss": 0.4589, "num_tokens": 426727.0, "step": 997 }, { "epoch": 0.33266666666666667, "grad_norm": 15.945637702941895, "learning_rate": 1.3766323024054984e-05, "loss": 0.2304, "num_tokens": 427158.0, "step": 998 }, { "epoch": 0.333, "grad_norm": 16.035791397094727, "learning_rate": 1.3759450171821307e-05, "loss": 0.2722, "num_tokens": 427614.0, "step": 999 }, { "epoch": 0.3333333333333333, "grad_norm": 14.272132873535156, "learning_rate": 1.375257731958763e-05, "loss": 0.3374, "num_tokens": 428061.0, "step": 1000 }, { "epoch": 0.33366666666666667, "grad_norm": 40.96101760864258, "learning_rate": 1.3745704467353953e-05, "loss": 0.3767, "num_tokens": 428414.0, "step": 1001 }, { "epoch": 0.334, "grad_norm": 27.36749267578125, "learning_rate": 1.3738831615120276e-05, "loss": 0.5431, "num_tokens": 428655.0, "step": 1002 }, { "epoch": 0.3343333333333333, "grad_norm": 48.47542190551758, "learning_rate": 1.3731958762886599e-05, "loss": 0.7894, "num_tokens": 428807.0, "step": 1003 }, { "epoch": 0.33466666666666667, "grad_norm": 22.643796920776367, "learning_rate": 1.3725085910652922e-05, "loss": 0.4645, "num_tokens": 429198.0, "step": 1004 }, { "epoch": 0.335, "grad_norm": 14.68553352355957, "learning_rate": 1.3718213058419245e-05, "loss": 0.3669, "num_tokens": 429692.0, "step": 1005 }, { "epoch": 0.3353333333333333, "grad_norm": 22.833608627319336, "learning_rate": 1.3711340206185568e-05, "loss": 0.4138, "num_tokens": 430051.0, "step": 1006 }, { "epoch": 0.33566666666666667, "grad_norm": 14.437907218933105, "learning_rate": 1.370446735395189e-05, "loss": 0.2713, "num_tokens": 430486.0, "step": 1007 }, { "epoch": 0.336, "grad_norm": 16.721750259399414, "learning_rate": 1.3697594501718214e-05, "loss": 0.3217, "num_tokens": 431063.0, "step": 1008 }, { "epoch": 0.3363333333333333, "grad_norm": 24.910829544067383, "learning_rate": 1.3690721649484537e-05, "loss": 0.3712, "num_tokens": 431282.0, "step": 1009 }, { "epoch": 0.33666666666666667, "grad_norm": 16.730539321899414, "learning_rate": 1.368384879725086e-05, "loss": 0.3082, "num_tokens": 431770.0, "step": 1010 }, { "epoch": 0.337, "grad_norm": 16.68932342529297, "learning_rate": 1.3676975945017183e-05, "loss": 0.2613, "num_tokens": 432122.0, "step": 1011 }, { "epoch": 0.3373333333333333, "grad_norm": 20.546817779541016, "learning_rate": 1.3670103092783506e-05, "loss": 0.4663, "num_tokens": 432470.0, "step": 1012 }, { "epoch": 0.33766666666666667, "grad_norm": 19.574844360351562, "learning_rate": 1.3663230240549829e-05, "loss": 0.3732, "num_tokens": 432800.0, "step": 1013 }, { "epoch": 0.338, "grad_norm": 26.656009674072266, "learning_rate": 1.3656357388316152e-05, "loss": 0.5514, "num_tokens": 433154.0, "step": 1014 }, { "epoch": 0.3383333333333333, "grad_norm": 24.288846969604492, "learning_rate": 1.3649484536082475e-05, "loss": 0.3726, "num_tokens": 433518.0, "step": 1015 }, { "epoch": 0.33866666666666667, "grad_norm": 20.39019012451172, "learning_rate": 1.3642611683848798e-05, "loss": 0.3985, "num_tokens": 433906.0, "step": 1016 }, { "epoch": 0.339, "grad_norm": 15.881165504455566, "learning_rate": 1.3635738831615123e-05, "loss": 0.2987, "num_tokens": 434416.0, "step": 1017 }, { "epoch": 0.3393333333333333, "grad_norm": 49.093441009521484, "learning_rate": 1.3628865979381446e-05, "loss": 0.3257, "num_tokens": 435021.0, "step": 1018 }, { "epoch": 0.3396666666666667, "grad_norm": 15.905976295471191, "learning_rate": 1.3621993127147769e-05, "loss": 0.2367, "num_tokens": 435726.0, "step": 1019 }, { "epoch": 0.34, "grad_norm": 15.612444877624512, "learning_rate": 1.3615120274914092e-05, "loss": 0.2724, "num_tokens": 436344.0, "step": 1020 }, { "epoch": 0.3403333333333333, "grad_norm": 13.098210334777832, "learning_rate": 1.3608247422680415e-05, "loss": 0.2358, "num_tokens": 436813.0, "step": 1021 }, { "epoch": 0.3406666666666667, "grad_norm": 57.23373031616211, "learning_rate": 1.3601374570446738e-05, "loss": 0.3414, "num_tokens": 437128.0, "step": 1022 }, { "epoch": 0.341, "grad_norm": 24.083650588989258, "learning_rate": 1.359450171821306e-05, "loss": 0.5758, "num_tokens": 437461.0, "step": 1023 }, { "epoch": 0.3413333333333333, "grad_norm": 18.314311981201172, "learning_rate": 1.3587628865979384e-05, "loss": 0.3403, "num_tokens": 437942.0, "step": 1024 }, { "epoch": 0.3416666666666667, "grad_norm": 19.92885398864746, "learning_rate": 1.3580756013745707e-05, "loss": 0.2961, "num_tokens": 438396.0, "step": 1025 }, { "epoch": 0.342, "grad_norm": 22.324703216552734, "learning_rate": 1.357388316151203e-05, "loss": 0.4222, "num_tokens": 438698.0, "step": 1026 }, { "epoch": 0.3423333333333333, "grad_norm": 18.771297454833984, "learning_rate": 1.3567010309278353e-05, "loss": 0.3376, "num_tokens": 439042.0, "step": 1027 }, { "epoch": 0.3426666666666667, "grad_norm": 16.861330032348633, "learning_rate": 1.3560137457044676e-05, "loss": 0.2786, "num_tokens": 439458.0, "step": 1028 }, { "epoch": 0.343, "grad_norm": 14.191258430480957, "learning_rate": 1.3553264604810999e-05, "loss": 0.2564, "num_tokens": 439894.0, "step": 1029 }, { "epoch": 0.3433333333333333, "grad_norm": 22.280658721923828, "learning_rate": 1.3546391752577322e-05, "loss": 0.4609, "num_tokens": 440426.0, "step": 1030 }, { "epoch": 0.3436666666666667, "grad_norm": 13.285468101501465, "learning_rate": 1.3539518900343645e-05, "loss": 0.3058, "num_tokens": 441284.0, "step": 1031 }, { "epoch": 0.344, "grad_norm": 21.084884643554688, "learning_rate": 1.3532646048109968e-05, "loss": 0.4144, "num_tokens": 441643.0, "step": 1032 }, { "epoch": 0.3443333333333333, "grad_norm": 16.94411277770996, "learning_rate": 1.352577319587629e-05, "loss": 0.2935, "num_tokens": 442062.0, "step": 1033 }, { "epoch": 0.3446666666666667, "grad_norm": 26.703453063964844, "learning_rate": 1.3518900343642614e-05, "loss": 0.5548, "num_tokens": 442403.0, "step": 1034 }, { "epoch": 0.345, "grad_norm": 28.018463134765625, "learning_rate": 1.3512027491408937e-05, "loss": 0.4638, "num_tokens": 442708.0, "step": 1035 }, { "epoch": 0.3453333333333333, "grad_norm": 37.019126892089844, "learning_rate": 1.350515463917526e-05, "loss": 0.7842, "num_tokens": 442961.0, "step": 1036 }, { "epoch": 0.3456666666666667, "grad_norm": 18.304847717285156, "learning_rate": 1.3498281786941583e-05, "loss": 0.4414, "num_tokens": 443378.0, "step": 1037 }, { "epoch": 0.346, "grad_norm": 26.22449493408203, "learning_rate": 1.3491408934707906e-05, "loss": 0.5227, "num_tokens": 443771.0, "step": 1038 }, { "epoch": 0.3463333333333333, "grad_norm": 17.654754638671875, "learning_rate": 1.3484536082474229e-05, "loss": 0.3487, "num_tokens": 444359.0, "step": 1039 }, { "epoch": 0.3466666666666667, "grad_norm": 19.031888961791992, "learning_rate": 1.3477663230240552e-05, "loss": 0.3266, "num_tokens": 444856.0, "step": 1040 }, { "epoch": 0.347, "grad_norm": 14.834895133972168, "learning_rate": 1.3470790378006875e-05, "loss": 0.3333, "num_tokens": 445406.0, "step": 1041 }, { "epoch": 0.3473333333333333, "grad_norm": 17.34480094909668, "learning_rate": 1.3463917525773198e-05, "loss": 0.2308, "num_tokens": 445617.0, "step": 1042 }, { "epoch": 0.3476666666666667, "grad_norm": 13.271309852600098, "learning_rate": 1.345704467353952e-05, "loss": 0.2361, "num_tokens": 445947.0, "step": 1043 }, { "epoch": 0.348, "grad_norm": 13.80868911743164, "learning_rate": 1.3450171821305844e-05, "loss": 0.2221, "num_tokens": 446374.0, "step": 1044 }, { "epoch": 0.34833333333333333, "grad_norm": 26.420103073120117, "learning_rate": 1.3443298969072167e-05, "loss": 0.649, "num_tokens": 446667.0, "step": 1045 }, { "epoch": 0.3486666666666667, "grad_norm": 11.7680025100708, "learning_rate": 1.3436426116838488e-05, "loss": 0.2668, "num_tokens": 447341.0, "step": 1046 }, { "epoch": 0.349, "grad_norm": 17.629791259765625, "learning_rate": 1.3429553264604811e-05, "loss": 0.327, "num_tokens": 447787.0, "step": 1047 }, { "epoch": 0.34933333333333333, "grad_norm": 21.904796600341797, "learning_rate": 1.3422680412371134e-05, "loss": 0.4976, "num_tokens": 448229.0, "step": 1048 }, { "epoch": 0.3496666666666667, "grad_norm": 21.57414436340332, "learning_rate": 1.3415807560137457e-05, "loss": 0.2776, "num_tokens": 448758.0, "step": 1049 }, { "epoch": 0.35, "grad_norm": 23.151695251464844, "learning_rate": 1.340893470790378e-05, "loss": 0.4623, "num_tokens": 449084.0, "step": 1050 }, { "epoch": 0.35033333333333333, "grad_norm": 23.522974014282227, "learning_rate": 1.3402061855670103e-05, "loss": 0.3844, "num_tokens": 449409.0, "step": 1051 }, { "epoch": 0.3506666666666667, "grad_norm": 14.969827651977539, "learning_rate": 1.3395189003436426e-05, "loss": 0.378, "num_tokens": 449890.0, "step": 1052 }, { "epoch": 0.351, "grad_norm": 16.334577560424805, "learning_rate": 1.338831615120275e-05, "loss": 0.3164, "num_tokens": 450296.0, "step": 1053 }, { "epoch": 0.35133333333333333, "grad_norm": 19.203285217285156, "learning_rate": 1.3381443298969072e-05, "loss": 0.3248, "num_tokens": 450643.0, "step": 1054 }, { "epoch": 0.3516666666666667, "grad_norm": 13.402548789978027, "learning_rate": 1.3374570446735395e-05, "loss": 0.2573, "num_tokens": 451116.0, "step": 1055 }, { "epoch": 0.352, "grad_norm": 20.256601333618164, "learning_rate": 1.3367697594501718e-05, "loss": 0.4271, "num_tokens": 451493.0, "step": 1056 }, { "epoch": 0.35233333333333333, "grad_norm": 30.61740493774414, "learning_rate": 1.3360824742268041e-05, "loss": 0.6949, "num_tokens": 451753.0, "step": 1057 }, { "epoch": 0.3526666666666667, "grad_norm": 12.404852867126465, "learning_rate": 1.3353951890034364e-05, "loss": 0.2305, "num_tokens": 452340.0, "step": 1058 }, { "epoch": 0.353, "grad_norm": 16.36083221435547, "learning_rate": 1.3347079037800687e-05, "loss": 0.3316, "num_tokens": 452717.0, "step": 1059 }, { "epoch": 0.35333333333333333, "grad_norm": 11.444425582885742, "learning_rate": 1.334020618556701e-05, "loss": 0.2696, "num_tokens": 453264.0, "step": 1060 }, { "epoch": 0.3536666666666667, "grad_norm": 21.772743225097656, "learning_rate": 1.3333333333333333e-05, "loss": 0.4277, "num_tokens": 453600.0, "step": 1061 }, { "epoch": 0.354, "grad_norm": 19.710294723510742, "learning_rate": 1.3326460481099656e-05, "loss": 0.3713, "num_tokens": 454016.0, "step": 1062 }, { "epoch": 0.35433333333333333, "grad_norm": 15.894389152526855, "learning_rate": 1.331958762886598e-05, "loss": 0.2964, "num_tokens": 454467.0, "step": 1063 }, { "epoch": 0.3546666666666667, "grad_norm": 12.121512413024902, "learning_rate": 1.3312714776632302e-05, "loss": 0.2986, "num_tokens": 455142.0, "step": 1064 }, { "epoch": 0.355, "grad_norm": 10.96960163116455, "learning_rate": 1.3305841924398625e-05, "loss": 0.2078, "num_tokens": 455697.0, "step": 1065 }, { "epoch": 0.35533333333333333, "grad_norm": 13.87387466430664, "learning_rate": 1.3298969072164948e-05, "loss": 0.245, "num_tokens": 456224.0, "step": 1066 }, { "epoch": 0.3556666666666667, "grad_norm": 17.260295867919922, "learning_rate": 1.3292096219931271e-05, "loss": 0.3874, "num_tokens": 456874.0, "step": 1067 }, { "epoch": 0.356, "grad_norm": 16.157804489135742, "learning_rate": 1.3285223367697594e-05, "loss": 0.2564, "num_tokens": 457516.0, "step": 1068 }, { "epoch": 0.35633333333333334, "grad_norm": 12.094852447509766, "learning_rate": 1.3278350515463917e-05, "loss": 0.2245, "num_tokens": 458072.0, "step": 1069 }, { "epoch": 0.3566666666666667, "grad_norm": 22.118061065673828, "learning_rate": 1.327147766323024e-05, "loss": 0.3902, "num_tokens": 458380.0, "step": 1070 }, { "epoch": 0.357, "grad_norm": 19.282573699951172, "learning_rate": 1.3264604810996563e-05, "loss": 0.4274, "num_tokens": 458720.0, "step": 1071 }, { "epoch": 0.35733333333333334, "grad_norm": 21.57517433166504, "learning_rate": 1.3257731958762886e-05, "loss": 0.3698, "num_tokens": 459074.0, "step": 1072 }, { "epoch": 0.3576666666666667, "grad_norm": 13.608341217041016, "learning_rate": 1.3250859106529211e-05, "loss": 0.2465, "num_tokens": 459651.0, "step": 1073 }, { "epoch": 0.358, "grad_norm": 26.298234939575195, "learning_rate": 1.3243986254295534e-05, "loss": 0.4641, "num_tokens": 460079.0, "step": 1074 }, { "epoch": 0.35833333333333334, "grad_norm": 18.953731536865234, "learning_rate": 1.3237113402061857e-05, "loss": 0.3465, "num_tokens": 460449.0, "step": 1075 }, { "epoch": 0.3586666666666667, "grad_norm": 23.957054138183594, "learning_rate": 1.323024054982818e-05, "loss": 0.3701, "num_tokens": 460859.0, "step": 1076 }, { "epoch": 0.359, "grad_norm": 17.73834228515625, "learning_rate": 1.3223367697594503e-05, "loss": 0.3323, "num_tokens": 461299.0, "step": 1077 }, { "epoch": 0.35933333333333334, "grad_norm": 18.358291625976562, "learning_rate": 1.3216494845360826e-05, "loss": 0.3249, "num_tokens": 461758.0, "step": 1078 }, { "epoch": 0.3596666666666667, "grad_norm": 37.344146728515625, "learning_rate": 1.3209621993127149e-05, "loss": 0.4247, "num_tokens": 461956.0, "step": 1079 }, { "epoch": 0.36, "grad_norm": 32.73588562011719, "learning_rate": 1.3202749140893472e-05, "loss": 0.5222, "num_tokens": 462216.0, "step": 1080 }, { "epoch": 0.36033333333333334, "grad_norm": 21.23603630065918, "learning_rate": 1.3195876288659795e-05, "loss": 0.483, "num_tokens": 462612.0, "step": 1081 }, { "epoch": 0.3606666666666667, "grad_norm": 18.546405792236328, "learning_rate": 1.3189003436426118e-05, "loss": 0.2749, "num_tokens": 463025.0, "step": 1082 }, { "epoch": 0.361, "grad_norm": 18.829727172851562, "learning_rate": 1.3182130584192441e-05, "loss": 0.2709, "num_tokens": 463402.0, "step": 1083 }, { "epoch": 0.36133333333333334, "grad_norm": 20.946393966674805, "learning_rate": 1.3175257731958764e-05, "loss": 0.3448, "num_tokens": 463738.0, "step": 1084 }, { "epoch": 0.3616666666666667, "grad_norm": 28.261220932006836, "learning_rate": 1.3168384879725087e-05, "loss": 0.5818, "num_tokens": 464095.0, "step": 1085 }, { "epoch": 0.362, "grad_norm": 20.51249122619629, "learning_rate": 1.316151202749141e-05, "loss": 0.4266, "num_tokens": 464484.0, "step": 1086 }, { "epoch": 0.36233333333333334, "grad_norm": 28.486921310424805, "learning_rate": 1.3154639175257733e-05, "loss": 0.548, "num_tokens": 464778.0, "step": 1087 }, { "epoch": 0.3626666666666667, "grad_norm": 24.60567855834961, "learning_rate": 1.3147766323024056e-05, "loss": 0.4043, "num_tokens": 465165.0, "step": 1088 }, { "epoch": 0.363, "grad_norm": 15.56784725189209, "learning_rate": 1.314089347079038e-05, "loss": 0.259, "num_tokens": 465517.0, "step": 1089 }, { "epoch": 0.36333333333333334, "grad_norm": 15.687424659729004, "learning_rate": 1.3134020618556702e-05, "loss": 0.2519, "num_tokens": 465908.0, "step": 1090 }, { "epoch": 0.3636666666666667, "grad_norm": 15.661452293395996, "learning_rate": 1.3127147766323025e-05, "loss": 0.2593, "num_tokens": 466300.0, "step": 1091 }, { "epoch": 0.364, "grad_norm": 13.695301055908203, "learning_rate": 1.3120274914089348e-05, "loss": 0.2705, "num_tokens": 466978.0, "step": 1092 }, { "epoch": 0.36433333333333334, "grad_norm": 18.417980194091797, "learning_rate": 1.3113402061855671e-05, "loss": 0.3658, "num_tokens": 467547.0, "step": 1093 }, { "epoch": 0.36466666666666664, "grad_norm": 22.303739547729492, "learning_rate": 1.3106529209621994e-05, "loss": 0.4775, "num_tokens": 467842.0, "step": 1094 }, { "epoch": 0.365, "grad_norm": 21.481863021850586, "learning_rate": 1.3099656357388317e-05, "loss": 0.3921, "num_tokens": 468154.0, "step": 1095 }, { "epoch": 0.36533333333333334, "grad_norm": 16.138410568237305, "learning_rate": 1.309278350515464e-05, "loss": 0.2806, "num_tokens": 468622.0, "step": 1096 }, { "epoch": 0.36566666666666664, "grad_norm": 15.60428237915039, "learning_rate": 1.3085910652920963e-05, "loss": 0.283, "num_tokens": 469074.0, "step": 1097 }, { "epoch": 0.366, "grad_norm": 23.7045955657959, "learning_rate": 1.3079037800687286e-05, "loss": 0.3806, "num_tokens": 469336.0, "step": 1098 }, { "epoch": 0.36633333333333334, "grad_norm": 25.601211547851562, "learning_rate": 1.307216494845361e-05, "loss": 0.4697, "num_tokens": 469594.0, "step": 1099 }, { "epoch": 0.36666666666666664, "grad_norm": 12.72181224822998, "learning_rate": 1.3065292096219932e-05, "loss": 0.2283, "num_tokens": 470152.0, "step": 1100 }, { "epoch": 0.367, "grad_norm": 17.92850112915039, "learning_rate": 1.3058419243986255e-05, "loss": 0.3717, "num_tokens": 470723.0, "step": 1101 }, { "epoch": 0.36733333333333335, "grad_norm": 26.446727752685547, "learning_rate": 1.3051546391752578e-05, "loss": 0.4525, "num_tokens": 471136.0, "step": 1102 }, { "epoch": 0.36766666666666664, "grad_norm": 20.686052322387695, "learning_rate": 1.3044673539518901e-05, "loss": 0.418, "num_tokens": 471510.0, "step": 1103 }, { "epoch": 0.368, "grad_norm": 14.285544395446777, "learning_rate": 1.3037800687285224e-05, "loss": 0.3184, "num_tokens": 472036.0, "step": 1104 }, { "epoch": 0.36833333333333335, "grad_norm": 22.03545570373535, "learning_rate": 1.3030927835051547e-05, "loss": 0.4264, "num_tokens": 472399.0, "step": 1105 }, { "epoch": 0.36866666666666664, "grad_norm": 22.884946823120117, "learning_rate": 1.302405498281787e-05, "loss": 0.4818, "num_tokens": 472730.0, "step": 1106 }, { "epoch": 0.369, "grad_norm": 23.658010482788086, "learning_rate": 1.3017182130584193e-05, "loss": 0.4854, "num_tokens": 473077.0, "step": 1107 }, { "epoch": 0.36933333333333335, "grad_norm": 13.630030632019043, "learning_rate": 1.3010309278350516e-05, "loss": 0.2477, "num_tokens": 473654.0, "step": 1108 }, { "epoch": 0.36966666666666664, "grad_norm": 10.070454597473145, "learning_rate": 1.300343642611684e-05, "loss": 0.1637, "num_tokens": 474199.0, "step": 1109 }, { "epoch": 0.37, "grad_norm": 15.302685737609863, "learning_rate": 1.2996563573883162e-05, "loss": 0.2735, "num_tokens": 474742.0, "step": 1110 }, { "epoch": 0.37033333333333335, "grad_norm": 21.022743225097656, "learning_rate": 1.2989690721649485e-05, "loss": 0.5123, "num_tokens": 475187.0, "step": 1111 }, { "epoch": 0.37066666666666664, "grad_norm": 24.8569278717041, "learning_rate": 1.2982817869415808e-05, "loss": 0.5796, "num_tokens": 475557.0, "step": 1112 }, { "epoch": 0.371, "grad_norm": 12.025877952575684, "learning_rate": 1.2975945017182131e-05, "loss": 0.2502, "num_tokens": 476227.0, "step": 1113 }, { "epoch": 0.37133333333333335, "grad_norm": 11.003083229064941, "learning_rate": 1.2969072164948454e-05, "loss": 0.1863, "num_tokens": 476807.0, "step": 1114 }, { "epoch": 0.37166666666666665, "grad_norm": 43.81560134887695, "learning_rate": 1.2962199312714777e-05, "loss": 0.6163, "num_tokens": 477055.0, "step": 1115 }, { "epoch": 0.372, "grad_norm": 20.784086227416992, "learning_rate": 1.2955326460481102e-05, "loss": 0.2754, "num_tokens": 477373.0, "step": 1116 }, { "epoch": 0.37233333333333335, "grad_norm": 9.874693870544434, "learning_rate": 1.2948453608247425e-05, "loss": 0.2382, "num_tokens": 478216.0, "step": 1117 }, { "epoch": 0.37266666666666665, "grad_norm": 33.102046966552734, "learning_rate": 1.2941580756013748e-05, "loss": 0.7981, "num_tokens": 478400.0, "step": 1118 }, { "epoch": 0.373, "grad_norm": 23.752971649169922, "learning_rate": 1.2934707903780071e-05, "loss": 0.4584, "num_tokens": 478808.0, "step": 1119 }, { "epoch": 0.37333333333333335, "grad_norm": 30.342117309570312, "learning_rate": 1.2927835051546394e-05, "loss": 0.4678, "num_tokens": 478983.0, "step": 1120 }, { "epoch": 0.37366666666666665, "grad_norm": 16.25002098083496, "learning_rate": 1.2920962199312717e-05, "loss": 0.2965, "num_tokens": 479393.0, "step": 1121 }, { "epoch": 0.374, "grad_norm": 23.72726058959961, "learning_rate": 1.291408934707904e-05, "loss": 0.4357, "num_tokens": 479714.0, "step": 1122 }, { "epoch": 0.37433333333333335, "grad_norm": 29.150651931762695, "learning_rate": 1.2907216494845363e-05, "loss": 0.5409, "num_tokens": 479988.0, "step": 1123 }, { "epoch": 0.37466666666666665, "grad_norm": 20.79514503479004, "learning_rate": 1.2900343642611686e-05, "loss": 0.3798, "num_tokens": 480327.0, "step": 1124 }, { "epoch": 0.375, "grad_norm": 18.280506134033203, "learning_rate": 1.289347079037801e-05, "loss": 0.3671, "num_tokens": 480820.0, "step": 1125 }, { "epoch": 0.37533333333333335, "grad_norm": 19.8229923248291, "learning_rate": 1.2886597938144332e-05, "loss": 0.3386, "num_tokens": 481156.0, "step": 1126 }, { "epoch": 0.37566666666666665, "grad_norm": 16.59060287475586, "learning_rate": 1.2879725085910655e-05, "loss": 0.3648, "num_tokens": 481618.0, "step": 1127 }, { "epoch": 0.376, "grad_norm": 11.363178253173828, "learning_rate": 1.2872852233676978e-05, "loss": 0.1917, "num_tokens": 482101.0, "step": 1128 }, { "epoch": 0.37633333333333335, "grad_norm": 18.580965042114258, "learning_rate": 1.2865979381443301e-05, "loss": 0.4066, "num_tokens": 482503.0, "step": 1129 }, { "epoch": 0.37666666666666665, "grad_norm": 29.695981979370117, "learning_rate": 1.2859106529209624e-05, "loss": 0.6003, "num_tokens": 482733.0, "step": 1130 }, { "epoch": 0.377, "grad_norm": 13.989581108093262, "learning_rate": 1.2852233676975947e-05, "loss": 0.2981, "num_tokens": 483431.0, "step": 1131 }, { "epoch": 0.37733333333333335, "grad_norm": 24.78279685974121, "learning_rate": 1.284536082474227e-05, "loss": 0.5247, "num_tokens": 483769.0, "step": 1132 }, { "epoch": 0.37766666666666665, "grad_norm": 20.349994659423828, "learning_rate": 1.2838487972508593e-05, "loss": 0.3744, "num_tokens": 484105.0, "step": 1133 }, { "epoch": 0.378, "grad_norm": 15.231034278869629, "learning_rate": 1.2831615120274916e-05, "loss": 0.2346, "num_tokens": 484470.0, "step": 1134 }, { "epoch": 0.37833333333333335, "grad_norm": 13.607717514038086, "learning_rate": 1.282474226804124e-05, "loss": 0.2861, "num_tokens": 485138.0, "step": 1135 }, { "epoch": 0.37866666666666665, "grad_norm": 24.42586326599121, "learning_rate": 1.2817869415807562e-05, "loss": 0.4673, "num_tokens": 485437.0, "step": 1136 }, { "epoch": 0.379, "grad_norm": 23.01663589477539, "learning_rate": 1.2810996563573884e-05, "loss": 0.4006, "num_tokens": 485841.0, "step": 1137 }, { "epoch": 0.37933333333333336, "grad_norm": 20.32039451599121, "learning_rate": 1.2804123711340207e-05, "loss": 0.3926, "num_tokens": 486249.0, "step": 1138 }, { "epoch": 0.37966666666666665, "grad_norm": 18.615535736083984, "learning_rate": 1.279725085910653e-05, "loss": 0.3752, "num_tokens": 486651.0, "step": 1139 }, { "epoch": 0.38, "grad_norm": 20.0799617767334, "learning_rate": 1.2790378006872853e-05, "loss": 0.4202, "num_tokens": 487088.0, "step": 1140 }, { "epoch": 0.38033333333333336, "grad_norm": 22.253116607666016, "learning_rate": 1.2783505154639176e-05, "loss": 0.3684, "num_tokens": 487385.0, "step": 1141 }, { "epoch": 0.38066666666666665, "grad_norm": 20.453201293945312, "learning_rate": 1.2776632302405499e-05, "loss": 0.3704, "num_tokens": 487863.0, "step": 1142 }, { "epoch": 0.381, "grad_norm": 13.841719627380371, "learning_rate": 1.2769759450171822e-05, "loss": 0.2606, "num_tokens": 488425.0, "step": 1143 }, { "epoch": 0.38133333333333336, "grad_norm": 23.24674415588379, "learning_rate": 1.2762886597938145e-05, "loss": 0.4814, "num_tokens": 488805.0, "step": 1144 }, { "epoch": 0.38166666666666665, "grad_norm": 35.531463623046875, "learning_rate": 1.2756013745704468e-05, "loss": 0.6043, "num_tokens": 489065.0, "step": 1145 }, { "epoch": 0.382, "grad_norm": 32.63093566894531, "learning_rate": 1.274914089347079e-05, "loss": 0.6449, "num_tokens": 489267.0, "step": 1146 }, { "epoch": 0.38233333333333336, "grad_norm": 31.238426208496094, "learning_rate": 1.2742268041237114e-05, "loss": 0.6334, "num_tokens": 489571.0, "step": 1147 }, { "epoch": 0.38266666666666665, "grad_norm": 21.950891494750977, "learning_rate": 1.2735395189003437e-05, "loss": 0.547, "num_tokens": 489964.0, "step": 1148 }, { "epoch": 0.383, "grad_norm": 19.119586944580078, "learning_rate": 1.272852233676976e-05, "loss": 0.3622, "num_tokens": 490300.0, "step": 1149 }, { "epoch": 0.38333333333333336, "grad_norm": 18.169342041015625, "learning_rate": 1.2721649484536083e-05, "loss": 0.2322, "num_tokens": 490733.0, "step": 1150 }, { "epoch": 0.38366666666666666, "grad_norm": 18.733360290527344, "learning_rate": 1.2714776632302406e-05, "loss": 0.4416, "num_tokens": 491128.0, "step": 1151 }, { "epoch": 0.384, "grad_norm": 18.579055786132812, "learning_rate": 1.2707903780068729e-05, "loss": 0.3386, "num_tokens": 491468.0, "step": 1152 }, { "epoch": 0.38433333333333336, "grad_norm": 16.39452362060547, "learning_rate": 1.2701030927835052e-05, "loss": 0.239, "num_tokens": 492019.0, "step": 1153 }, { "epoch": 0.38466666666666666, "grad_norm": 15.22903823852539, "learning_rate": 1.2694158075601375e-05, "loss": 0.3215, "num_tokens": 492750.0, "step": 1154 }, { "epoch": 0.385, "grad_norm": 13.664992332458496, "learning_rate": 1.2687285223367698e-05, "loss": 0.2432, "num_tokens": 493249.0, "step": 1155 }, { "epoch": 0.38533333333333336, "grad_norm": 17.66621971130371, "learning_rate": 1.268041237113402e-05, "loss": 0.4395, "num_tokens": 493759.0, "step": 1156 }, { "epoch": 0.38566666666666666, "grad_norm": 15.779143333435059, "learning_rate": 1.2673539518900344e-05, "loss": 0.2638, "num_tokens": 494163.0, "step": 1157 }, { "epoch": 0.386, "grad_norm": 18.89597511291504, "learning_rate": 1.2666666666666667e-05, "loss": 0.2679, "num_tokens": 494722.0, "step": 1158 }, { "epoch": 0.3863333333333333, "grad_norm": 22.276025772094727, "learning_rate": 1.265979381443299e-05, "loss": 0.3467, "num_tokens": 495058.0, "step": 1159 }, { "epoch": 0.38666666666666666, "grad_norm": 13.181798934936523, "learning_rate": 1.2652920962199313e-05, "loss": 0.2317, "num_tokens": 495651.0, "step": 1160 }, { "epoch": 0.387, "grad_norm": 14.811128616333008, "learning_rate": 1.2646048109965636e-05, "loss": 0.2589, "num_tokens": 496296.0, "step": 1161 }, { "epoch": 0.3873333333333333, "grad_norm": 26.923540115356445, "learning_rate": 1.2639175257731959e-05, "loss": 0.6248, "num_tokens": 496672.0, "step": 1162 }, { "epoch": 0.38766666666666666, "grad_norm": 19.210615158081055, "learning_rate": 1.2632302405498282e-05, "loss": 0.4933, "num_tokens": 497146.0, "step": 1163 }, { "epoch": 0.388, "grad_norm": 22.490625381469727, "learning_rate": 1.2625429553264605e-05, "loss": 0.6416, "num_tokens": 497477.0, "step": 1164 }, { "epoch": 0.3883333333333333, "grad_norm": 25.704256057739258, "learning_rate": 1.2618556701030928e-05, "loss": 0.5293, "num_tokens": 497739.0, "step": 1165 }, { "epoch": 0.38866666666666666, "grad_norm": 24.787616729736328, "learning_rate": 1.2611683848797251e-05, "loss": 0.4574, "num_tokens": 498034.0, "step": 1166 }, { "epoch": 0.389, "grad_norm": 14.404008865356445, "learning_rate": 1.2604810996563574e-05, "loss": 0.2333, "num_tokens": 498621.0, "step": 1167 }, { "epoch": 0.3893333333333333, "grad_norm": 19.343358993530273, "learning_rate": 1.2597938144329897e-05, "loss": 0.3399, "num_tokens": 498954.0, "step": 1168 }, { "epoch": 0.38966666666666666, "grad_norm": 10.627667427062988, "learning_rate": 1.259106529209622e-05, "loss": 0.2015, "num_tokens": 499469.0, "step": 1169 }, { "epoch": 0.39, "grad_norm": 17.674631118774414, "learning_rate": 1.2584192439862543e-05, "loss": 0.2151, "num_tokens": 500250.0, "step": 1170 }, { "epoch": 0.3903333333333333, "grad_norm": 28.006227493286133, "learning_rate": 1.2577319587628866e-05, "loss": 0.5997, "num_tokens": 500487.0, "step": 1171 }, { "epoch": 0.39066666666666666, "grad_norm": 32.10094451904297, "learning_rate": 1.257044673539519e-05, "loss": 0.7302, "num_tokens": 500757.0, "step": 1172 }, { "epoch": 0.391, "grad_norm": 19.81618881225586, "learning_rate": 1.2563573883161514e-05, "loss": 0.391, "num_tokens": 501267.0, "step": 1173 }, { "epoch": 0.3913333333333333, "grad_norm": 14.318201065063477, "learning_rate": 1.2556701030927837e-05, "loss": 0.2657, "num_tokens": 501756.0, "step": 1174 }, { "epoch": 0.39166666666666666, "grad_norm": 23.60334587097168, "learning_rate": 1.254982817869416e-05, "loss": 0.5792, "num_tokens": 502113.0, "step": 1175 }, { "epoch": 0.392, "grad_norm": 28.500341415405273, "learning_rate": 1.2542955326460483e-05, "loss": 0.6722, "num_tokens": 502422.0, "step": 1176 }, { "epoch": 0.3923333333333333, "grad_norm": 21.80260467529297, "learning_rate": 1.2536082474226806e-05, "loss": 0.3214, "num_tokens": 502829.0, "step": 1177 }, { "epoch": 0.39266666666666666, "grad_norm": 20.39137077331543, "learning_rate": 1.2529209621993129e-05, "loss": 0.313, "num_tokens": 503241.0, "step": 1178 }, { "epoch": 0.393, "grad_norm": 17.652565002441406, "learning_rate": 1.2522336769759452e-05, "loss": 0.3333, "num_tokens": 503816.0, "step": 1179 }, { "epoch": 0.3933333333333333, "grad_norm": 24.415790557861328, "learning_rate": 1.2515463917525775e-05, "loss": 0.4515, "num_tokens": 504194.0, "step": 1180 }, { "epoch": 0.39366666666666666, "grad_norm": 11.546710014343262, "learning_rate": 1.2508591065292098e-05, "loss": 0.2341, "num_tokens": 504874.0, "step": 1181 }, { "epoch": 0.394, "grad_norm": 28.50632095336914, "learning_rate": 1.250171821305842e-05, "loss": 0.5001, "num_tokens": 505138.0, "step": 1182 }, { "epoch": 0.3943333333333333, "grad_norm": 18.401914596557617, "learning_rate": 1.2494845360824744e-05, "loss": 0.3799, "num_tokens": 505592.0, "step": 1183 }, { "epoch": 0.39466666666666667, "grad_norm": 13.968500137329102, "learning_rate": 1.2487972508591067e-05, "loss": 0.3769, "num_tokens": 506277.0, "step": 1184 }, { "epoch": 0.395, "grad_norm": 20.91876220703125, "learning_rate": 1.248109965635739e-05, "loss": 0.3846, "num_tokens": 506856.0, "step": 1185 }, { "epoch": 0.3953333333333333, "grad_norm": 20.348661422729492, "learning_rate": 1.2474226804123713e-05, "loss": 0.4439, "num_tokens": 507220.0, "step": 1186 }, { "epoch": 0.39566666666666667, "grad_norm": 21.80577278137207, "learning_rate": 1.2467353951890036e-05, "loss": 0.448, "num_tokens": 507558.0, "step": 1187 }, { "epoch": 0.396, "grad_norm": 33.3502197265625, "learning_rate": 1.2460481099656359e-05, "loss": 0.7592, "num_tokens": 507770.0, "step": 1188 }, { "epoch": 0.3963333333333333, "grad_norm": 16.392908096313477, "learning_rate": 1.2453608247422682e-05, "loss": 0.3368, "num_tokens": 508224.0, "step": 1189 }, { "epoch": 0.39666666666666667, "grad_norm": 17.958751678466797, "learning_rate": 1.2446735395189005e-05, "loss": 0.3307, "num_tokens": 508570.0, "step": 1190 }, { "epoch": 0.397, "grad_norm": 17.106311798095703, "learning_rate": 1.2439862542955328e-05, "loss": 0.3566, "num_tokens": 509109.0, "step": 1191 }, { "epoch": 0.3973333333333333, "grad_norm": 13.123290061950684, "learning_rate": 1.243298969072165e-05, "loss": 0.1966, "num_tokens": 509611.0, "step": 1192 }, { "epoch": 0.39766666666666667, "grad_norm": 18.17109489440918, "learning_rate": 1.2426116838487974e-05, "loss": 0.2044, "num_tokens": 509878.0, "step": 1193 }, { "epoch": 0.398, "grad_norm": 20.942018508911133, "learning_rate": 1.2419243986254297e-05, "loss": 0.3572, "num_tokens": 510278.0, "step": 1194 }, { "epoch": 0.3983333333333333, "grad_norm": 34.73643493652344, "learning_rate": 1.241237113402062e-05, "loss": 0.6474, "num_tokens": 510529.0, "step": 1195 }, { "epoch": 0.39866666666666667, "grad_norm": 15.570846557617188, "learning_rate": 1.2405498281786943e-05, "loss": 0.2694, "num_tokens": 510930.0, "step": 1196 }, { "epoch": 0.399, "grad_norm": 12.607349395751953, "learning_rate": 1.2398625429553266e-05, "loss": 0.2246, "num_tokens": 511401.0, "step": 1197 }, { "epoch": 0.3993333333333333, "grad_norm": 18.67749786376953, "learning_rate": 1.2391752577319589e-05, "loss": 0.4367, "num_tokens": 511780.0, "step": 1198 }, { "epoch": 0.39966666666666667, "grad_norm": 16.713027954101562, "learning_rate": 1.2384879725085912e-05, "loss": 0.3102, "num_tokens": 512176.0, "step": 1199 }, { "epoch": 0.4, "grad_norm": 20.054061889648438, "learning_rate": 1.2378006872852235e-05, "loss": 0.4251, "num_tokens": 512579.0, "step": 1200 }, { "epoch": 0.4003333333333333, "grad_norm": 38.49532699584961, "learning_rate": 1.2371134020618558e-05, "loss": 0.7368, "num_tokens": 512800.0, "step": 1201 }, { "epoch": 0.40066666666666667, "grad_norm": 33.336421966552734, "learning_rate": 1.2364261168384881e-05, "loss": 0.4137, "num_tokens": 513113.0, "step": 1202 }, { "epoch": 0.401, "grad_norm": 33.0419921875, "learning_rate": 1.2357388316151204e-05, "loss": 0.3897, "num_tokens": 513527.0, "step": 1203 }, { "epoch": 0.4013333333333333, "grad_norm": 18.001192092895508, "learning_rate": 1.2350515463917527e-05, "loss": 0.2949, "num_tokens": 513964.0, "step": 1204 }, { "epoch": 0.40166666666666667, "grad_norm": 17.315038681030273, "learning_rate": 1.234364261168385e-05, "loss": 0.334, "num_tokens": 514370.0, "step": 1205 }, { "epoch": 0.402, "grad_norm": 15.993814468383789, "learning_rate": 1.2336769759450173e-05, "loss": 0.3102, "num_tokens": 514989.0, "step": 1206 }, { "epoch": 0.4023333333333333, "grad_norm": 36.95761489868164, "learning_rate": 1.2329896907216496e-05, "loss": 0.591, "num_tokens": 515296.0, "step": 1207 }, { "epoch": 0.4026666666666667, "grad_norm": 15.046778678894043, "learning_rate": 1.2323024054982819e-05, "loss": 0.2829, "num_tokens": 515865.0, "step": 1208 }, { "epoch": 0.403, "grad_norm": 16.87507438659668, "learning_rate": 1.2316151202749142e-05, "loss": 0.3458, "num_tokens": 516259.0, "step": 1209 }, { "epoch": 0.4033333333333333, "grad_norm": 17.899904251098633, "learning_rate": 1.2309278350515465e-05, "loss": 0.4018, "num_tokens": 516756.0, "step": 1210 }, { "epoch": 0.4036666666666667, "grad_norm": 15.27860164642334, "learning_rate": 1.2302405498281788e-05, "loss": 0.2518, "num_tokens": 517187.0, "step": 1211 }, { "epoch": 0.404, "grad_norm": 18.3880615234375, "learning_rate": 1.2295532646048111e-05, "loss": 0.2597, "num_tokens": 517667.0, "step": 1212 }, { "epoch": 0.4043333333333333, "grad_norm": 15.31396198272705, "learning_rate": 1.2288659793814434e-05, "loss": 0.3454, "num_tokens": 518181.0, "step": 1213 }, { "epoch": 0.4046666666666667, "grad_norm": 27.46833038330078, "learning_rate": 1.2281786941580757e-05, "loss": 0.598, "num_tokens": 518544.0, "step": 1214 }, { "epoch": 0.405, "grad_norm": 13.411375045776367, "learning_rate": 1.2274914089347082e-05, "loss": 0.2237, "num_tokens": 519074.0, "step": 1215 }, { "epoch": 0.4053333333333333, "grad_norm": 16.58987045288086, "learning_rate": 1.2268041237113405e-05, "loss": 0.3344, "num_tokens": 519471.0, "step": 1216 }, { "epoch": 0.4056666666666667, "grad_norm": 20.169742584228516, "learning_rate": 1.2261168384879728e-05, "loss": 0.3162, "num_tokens": 519790.0, "step": 1217 }, { "epoch": 0.406, "grad_norm": 23.431747436523438, "learning_rate": 1.225429553264605e-05, "loss": 0.3977, "num_tokens": 520163.0, "step": 1218 }, { "epoch": 0.4063333333333333, "grad_norm": 20.460493087768555, "learning_rate": 1.2247422680412374e-05, "loss": 0.3132, "num_tokens": 520529.0, "step": 1219 }, { "epoch": 0.4066666666666667, "grad_norm": 20.148258209228516, "learning_rate": 1.2240549828178697e-05, "loss": 0.4133, "num_tokens": 521045.0, "step": 1220 }, { "epoch": 0.407, "grad_norm": 21.5003604888916, "learning_rate": 1.223367697594502e-05, "loss": 0.1895, "num_tokens": 521624.0, "step": 1221 }, { "epoch": 0.4073333333333333, "grad_norm": 15.99443244934082, "learning_rate": 1.2226804123711343e-05, "loss": 0.2997, "num_tokens": 522039.0, "step": 1222 }, { "epoch": 0.4076666666666667, "grad_norm": 15.814536094665527, "learning_rate": 1.2219931271477666e-05, "loss": 0.3448, "num_tokens": 522454.0, "step": 1223 }, { "epoch": 0.408, "grad_norm": 19.440387725830078, "learning_rate": 1.2213058419243989e-05, "loss": 0.3741, "num_tokens": 522948.0, "step": 1224 }, { "epoch": 0.4083333333333333, "grad_norm": 25.944671630859375, "learning_rate": 1.2206185567010312e-05, "loss": 0.4105, "num_tokens": 523208.0, "step": 1225 }, { "epoch": 0.4086666666666667, "grad_norm": 19.002105712890625, "learning_rate": 1.2199312714776635e-05, "loss": 0.364, "num_tokens": 523533.0, "step": 1226 }, { "epoch": 0.409, "grad_norm": 19.859769821166992, "learning_rate": 1.2192439862542958e-05, "loss": 0.3709, "num_tokens": 523954.0, "step": 1227 }, { "epoch": 0.4093333333333333, "grad_norm": 15.217742919921875, "learning_rate": 1.2185567010309279e-05, "loss": 0.2361, "num_tokens": 524309.0, "step": 1228 }, { "epoch": 0.4096666666666667, "grad_norm": 26.992074966430664, "learning_rate": 1.2178694158075602e-05, "loss": 0.5826, "num_tokens": 524553.0, "step": 1229 }, { "epoch": 0.41, "grad_norm": 18.37705421447754, "learning_rate": 1.2171821305841925e-05, "loss": 0.4328, "num_tokens": 525031.0, "step": 1230 }, { "epoch": 0.4103333333333333, "grad_norm": 21.009716033935547, "learning_rate": 1.2164948453608248e-05, "loss": 0.3224, "num_tokens": 525392.0, "step": 1231 }, { "epoch": 0.4106666666666667, "grad_norm": 18.156667709350586, "learning_rate": 1.2158075601374571e-05, "loss": 0.4453, "num_tokens": 525779.0, "step": 1232 }, { "epoch": 0.411, "grad_norm": 16.587785720825195, "learning_rate": 1.2151202749140894e-05, "loss": 0.4482, "num_tokens": 526207.0, "step": 1233 }, { "epoch": 0.41133333333333333, "grad_norm": 10.661417961120605, "learning_rate": 1.2144329896907217e-05, "loss": 0.1491, "num_tokens": 526699.0, "step": 1234 }, { "epoch": 0.4116666666666667, "grad_norm": 29.016990661621094, "learning_rate": 1.213745704467354e-05, "loss": 0.4244, "num_tokens": 526979.0, "step": 1235 }, { "epoch": 0.412, "grad_norm": 12.799103736877441, "learning_rate": 1.2130584192439863e-05, "loss": 0.3481, "num_tokens": 527813.0, "step": 1236 }, { "epoch": 0.41233333333333333, "grad_norm": 32.72770309448242, "learning_rate": 1.2123711340206186e-05, "loss": 0.4391, "num_tokens": 528178.0, "step": 1237 }, { "epoch": 0.4126666666666667, "grad_norm": 15.127230644226074, "learning_rate": 1.211683848797251e-05, "loss": 0.2962, "num_tokens": 528656.0, "step": 1238 }, { "epoch": 0.413, "grad_norm": 15.258519172668457, "learning_rate": 1.2109965635738832e-05, "loss": 0.3249, "num_tokens": 529273.0, "step": 1239 }, { "epoch": 0.41333333333333333, "grad_norm": 28.646440505981445, "learning_rate": 1.2103092783505155e-05, "loss": 0.5898, "num_tokens": 529585.0, "step": 1240 }, { "epoch": 0.4136666666666667, "grad_norm": 20.654130935668945, "learning_rate": 1.2096219931271478e-05, "loss": 0.3038, "num_tokens": 529834.0, "step": 1241 }, { "epoch": 0.414, "grad_norm": 42.21305465698242, "learning_rate": 1.2089347079037801e-05, "loss": 0.5499, "num_tokens": 530111.0, "step": 1242 }, { "epoch": 0.41433333333333333, "grad_norm": 18.16595458984375, "learning_rate": 1.2082474226804124e-05, "loss": 0.4303, "num_tokens": 530544.0, "step": 1243 }, { "epoch": 0.4146666666666667, "grad_norm": 17.986879348754883, "learning_rate": 1.2075601374570447e-05, "loss": 0.4294, "num_tokens": 531070.0, "step": 1244 }, { "epoch": 0.415, "grad_norm": 17.013200759887695, "learning_rate": 1.206872852233677e-05, "loss": 0.3607, "num_tokens": 531553.0, "step": 1245 }, { "epoch": 0.41533333333333333, "grad_norm": 30.489517211914062, "learning_rate": 1.2061855670103093e-05, "loss": 0.5927, "num_tokens": 531885.0, "step": 1246 }, { "epoch": 0.4156666666666667, "grad_norm": 18.196352005004883, "learning_rate": 1.2054982817869416e-05, "loss": 0.4328, "num_tokens": 532451.0, "step": 1247 }, { "epoch": 0.416, "grad_norm": 22.366809844970703, "learning_rate": 1.204810996563574e-05, "loss": 0.3915, "num_tokens": 532851.0, "step": 1248 }, { "epoch": 0.41633333333333333, "grad_norm": 20.223970413208008, "learning_rate": 1.2041237113402062e-05, "loss": 0.3933, "num_tokens": 533190.0, "step": 1249 }, { "epoch": 0.4166666666666667, "grad_norm": 21.987335205078125, "learning_rate": 1.2034364261168385e-05, "loss": 0.493, "num_tokens": 533614.0, "step": 1250 }, { "epoch": 0.417, "grad_norm": 21.324926376342773, "learning_rate": 1.2027491408934708e-05, "loss": 0.4704, "num_tokens": 533975.0, "step": 1251 }, { "epoch": 0.41733333333333333, "grad_norm": 14.121621131896973, "learning_rate": 1.2020618556701031e-05, "loss": 0.2739, "num_tokens": 534388.0, "step": 1252 }, { "epoch": 0.4176666666666667, "grad_norm": 20.632980346679688, "learning_rate": 1.2013745704467354e-05, "loss": 0.3502, "num_tokens": 534761.0, "step": 1253 }, { "epoch": 0.418, "grad_norm": 15.143418312072754, "learning_rate": 1.2006872852233677e-05, "loss": 0.3619, "num_tokens": 535303.0, "step": 1254 }, { "epoch": 0.41833333333333333, "grad_norm": 16.497655868530273, "learning_rate": 1.2e-05, "loss": 0.4041, "num_tokens": 535743.0, "step": 1255 }, { "epoch": 0.4186666666666667, "grad_norm": 14.332852363586426, "learning_rate": 1.1993127147766323e-05, "loss": 0.271, "num_tokens": 536220.0, "step": 1256 }, { "epoch": 0.419, "grad_norm": 23.649690628051758, "learning_rate": 1.1986254295532646e-05, "loss": 0.4342, "num_tokens": 536524.0, "step": 1257 }, { "epoch": 0.41933333333333334, "grad_norm": 31.498987197875977, "learning_rate": 1.197938144329897e-05, "loss": 0.6742, "num_tokens": 536751.0, "step": 1258 }, { "epoch": 0.4196666666666667, "grad_norm": 14.122364044189453, "learning_rate": 1.1972508591065292e-05, "loss": 0.266, "num_tokens": 537270.0, "step": 1259 }, { "epoch": 0.42, "grad_norm": 14.17014217376709, "learning_rate": 1.1965635738831615e-05, "loss": 0.2997, "num_tokens": 537728.0, "step": 1260 }, { "epoch": 0.42033333333333334, "grad_norm": 19.9280948638916, "learning_rate": 1.1958762886597938e-05, "loss": 0.3726, "num_tokens": 538126.0, "step": 1261 }, { "epoch": 0.4206666666666667, "grad_norm": 25.893075942993164, "learning_rate": 1.1951890034364261e-05, "loss": 0.5034, "num_tokens": 538454.0, "step": 1262 }, { "epoch": 0.421, "grad_norm": 17.02712059020996, "learning_rate": 1.1945017182130584e-05, "loss": 0.4269, "num_tokens": 539036.0, "step": 1263 }, { "epoch": 0.42133333333333334, "grad_norm": 18.46988296508789, "learning_rate": 1.1938144329896907e-05, "loss": 0.3549, "num_tokens": 539416.0, "step": 1264 }, { "epoch": 0.4216666666666667, "grad_norm": 19.18372344970703, "learning_rate": 1.193127147766323e-05, "loss": 0.3059, "num_tokens": 539733.0, "step": 1265 }, { "epoch": 0.422, "grad_norm": 24.51163673400879, "learning_rate": 1.1924398625429553e-05, "loss": 0.5125, "num_tokens": 539990.0, "step": 1266 }, { "epoch": 0.42233333333333334, "grad_norm": 18.20511817932129, "learning_rate": 1.1917525773195876e-05, "loss": 0.3941, "num_tokens": 540356.0, "step": 1267 }, { "epoch": 0.4226666666666667, "grad_norm": 10.799991607666016, "learning_rate": 1.19106529209622e-05, "loss": 0.2457, "num_tokens": 540979.0, "step": 1268 }, { "epoch": 0.423, "grad_norm": 21.39693260192871, "learning_rate": 1.1903780068728522e-05, "loss": 0.3887, "num_tokens": 541309.0, "step": 1269 }, { "epoch": 0.42333333333333334, "grad_norm": 20.52490234375, "learning_rate": 1.1896907216494845e-05, "loss": 0.4312, "num_tokens": 541646.0, "step": 1270 }, { "epoch": 0.4236666666666667, "grad_norm": 16.397802352905273, "learning_rate": 1.189003436426117e-05, "loss": 0.2645, "num_tokens": 542154.0, "step": 1271 }, { "epoch": 0.424, "grad_norm": 12.583030700683594, "learning_rate": 1.1883161512027493e-05, "loss": 0.2154, "num_tokens": 542628.0, "step": 1272 }, { "epoch": 0.42433333333333334, "grad_norm": 18.903608322143555, "learning_rate": 1.1876288659793816e-05, "loss": 0.392, "num_tokens": 543061.0, "step": 1273 }, { "epoch": 0.4246666666666667, "grad_norm": 16.762319564819336, "learning_rate": 1.186941580756014e-05, "loss": 0.3897, "num_tokens": 543496.0, "step": 1274 }, { "epoch": 0.425, "grad_norm": 32.447689056396484, "learning_rate": 1.1862542955326462e-05, "loss": 0.7968, "num_tokens": 543791.0, "step": 1275 }, { "epoch": 0.42533333333333334, "grad_norm": 15.43822193145752, "learning_rate": 1.1855670103092785e-05, "loss": 0.3142, "num_tokens": 544164.0, "step": 1276 }, { "epoch": 0.4256666666666667, "grad_norm": 12.23777961730957, "learning_rate": 1.1848797250859108e-05, "loss": 0.2843, "num_tokens": 544752.0, "step": 1277 }, { "epoch": 0.426, "grad_norm": 14.619271278381348, "learning_rate": 1.1841924398625431e-05, "loss": 0.2599, "num_tokens": 545147.0, "step": 1278 }, { "epoch": 0.42633333333333334, "grad_norm": 19.686948776245117, "learning_rate": 1.1835051546391754e-05, "loss": 0.3378, "num_tokens": 545518.0, "step": 1279 }, { "epoch": 0.4266666666666667, "grad_norm": 22.819351196289062, "learning_rate": 1.1828178694158077e-05, "loss": 0.2921, "num_tokens": 545899.0, "step": 1280 }, { "epoch": 0.427, "grad_norm": 18.818729400634766, "learning_rate": 1.18213058419244e-05, "loss": 0.4975, "num_tokens": 546453.0, "step": 1281 }, { "epoch": 0.42733333333333334, "grad_norm": 22.31288719177246, "learning_rate": 1.1814432989690723e-05, "loss": 0.3141, "num_tokens": 546716.0, "step": 1282 }, { "epoch": 0.42766666666666664, "grad_norm": 17.437515258789062, "learning_rate": 1.1807560137457046e-05, "loss": 0.3396, "num_tokens": 547080.0, "step": 1283 }, { "epoch": 0.428, "grad_norm": 25.12779426574707, "learning_rate": 1.180068728522337e-05, "loss": 0.2291, "num_tokens": 547537.0, "step": 1284 }, { "epoch": 0.42833333333333334, "grad_norm": 18.463171005249023, "learning_rate": 1.1793814432989692e-05, "loss": 0.303, "num_tokens": 547841.0, "step": 1285 }, { "epoch": 0.42866666666666664, "grad_norm": 22.807207107543945, "learning_rate": 1.1786941580756015e-05, "loss": 0.5286, "num_tokens": 548158.0, "step": 1286 }, { "epoch": 0.429, "grad_norm": 35.30897903442383, "learning_rate": 1.1780068728522338e-05, "loss": 0.6705, "num_tokens": 548356.0, "step": 1287 }, { "epoch": 0.42933333333333334, "grad_norm": 15.78083324432373, "learning_rate": 1.1773195876288661e-05, "loss": 0.4716, "num_tokens": 548827.0, "step": 1288 }, { "epoch": 0.42966666666666664, "grad_norm": 14.74503231048584, "learning_rate": 1.1766323024054984e-05, "loss": 0.3426, "num_tokens": 549650.0, "step": 1289 }, { "epoch": 0.43, "grad_norm": 19.47186851501465, "learning_rate": 1.1759450171821307e-05, "loss": 0.3605, "num_tokens": 549941.0, "step": 1290 }, { "epoch": 0.43033333333333335, "grad_norm": 14.485832214355469, "learning_rate": 1.175257731958763e-05, "loss": 0.2611, "num_tokens": 550495.0, "step": 1291 }, { "epoch": 0.43066666666666664, "grad_norm": 13.925914764404297, "learning_rate": 1.1745704467353953e-05, "loss": 0.2382, "num_tokens": 550886.0, "step": 1292 }, { "epoch": 0.431, "grad_norm": 11.949101448059082, "learning_rate": 1.1738831615120276e-05, "loss": 0.2225, "num_tokens": 551488.0, "step": 1293 }, { "epoch": 0.43133333333333335, "grad_norm": 22.197906494140625, "learning_rate": 1.17319587628866e-05, "loss": 0.3603, "num_tokens": 551904.0, "step": 1294 }, { "epoch": 0.43166666666666664, "grad_norm": 26.413026809692383, "learning_rate": 1.1725085910652922e-05, "loss": 0.541, "num_tokens": 552282.0, "step": 1295 }, { "epoch": 0.432, "grad_norm": 13.891332626342773, "learning_rate": 1.1718213058419245e-05, "loss": 0.2527, "num_tokens": 553135.0, "step": 1296 }, { "epoch": 0.43233333333333335, "grad_norm": 24.450183868408203, "learning_rate": 1.1711340206185568e-05, "loss": 0.5151, "num_tokens": 553504.0, "step": 1297 }, { "epoch": 0.43266666666666664, "grad_norm": 18.109758377075195, "learning_rate": 1.1704467353951891e-05, "loss": 0.2653, "num_tokens": 553870.0, "step": 1298 }, { "epoch": 0.433, "grad_norm": 35.565940856933594, "learning_rate": 1.1697594501718214e-05, "loss": 0.6425, "num_tokens": 554061.0, "step": 1299 }, { "epoch": 0.43333333333333335, "grad_norm": 15.91165828704834, "learning_rate": 1.1690721649484537e-05, "loss": 0.2601, "num_tokens": 554484.0, "step": 1300 }, { "epoch": 0.43366666666666664, "grad_norm": 14.545313835144043, "learning_rate": 1.168384879725086e-05, "loss": 0.2589, "num_tokens": 554844.0, "step": 1301 }, { "epoch": 0.434, "grad_norm": 19.722816467285156, "learning_rate": 1.1676975945017183e-05, "loss": 0.3393, "num_tokens": 555210.0, "step": 1302 }, { "epoch": 0.43433333333333335, "grad_norm": 29.810155868530273, "learning_rate": 1.1670103092783506e-05, "loss": 0.6585, "num_tokens": 555533.0, "step": 1303 }, { "epoch": 0.43466666666666665, "grad_norm": 20.168800354003906, "learning_rate": 1.166323024054983e-05, "loss": 0.4886, "num_tokens": 556033.0, "step": 1304 }, { "epoch": 0.435, "grad_norm": 15.400665283203125, "learning_rate": 1.1656357388316152e-05, "loss": 0.3338, "num_tokens": 556592.0, "step": 1305 }, { "epoch": 0.43533333333333335, "grad_norm": 22.281627655029297, "learning_rate": 1.1649484536082475e-05, "loss": 0.2999, "num_tokens": 556991.0, "step": 1306 }, { "epoch": 0.43566666666666665, "grad_norm": 17.55821418762207, "learning_rate": 1.1642611683848798e-05, "loss": 0.4568, "num_tokens": 557511.0, "step": 1307 }, { "epoch": 0.436, "grad_norm": 27.755321502685547, "learning_rate": 1.1635738831615121e-05, "loss": 0.5489, "num_tokens": 557713.0, "step": 1308 }, { "epoch": 0.43633333333333335, "grad_norm": 11.53261661529541, "learning_rate": 1.1628865979381444e-05, "loss": 0.1923, "num_tokens": 558240.0, "step": 1309 }, { "epoch": 0.43666666666666665, "grad_norm": 9.869200706481934, "learning_rate": 1.1621993127147767e-05, "loss": 0.2699, "num_tokens": 558988.0, "step": 1310 }, { "epoch": 0.437, "grad_norm": 20.453201293945312, "learning_rate": 1.161512027491409e-05, "loss": 0.469, "num_tokens": 559471.0, "step": 1311 }, { "epoch": 0.43733333333333335, "grad_norm": 28.168140411376953, "learning_rate": 1.1608247422680413e-05, "loss": 0.5441, "num_tokens": 559755.0, "step": 1312 }, { "epoch": 0.43766666666666665, "grad_norm": 18.423261642456055, "learning_rate": 1.1601374570446736e-05, "loss": 0.3784, "num_tokens": 560274.0, "step": 1313 }, { "epoch": 0.438, "grad_norm": 23.48848533630371, "learning_rate": 1.1594501718213061e-05, "loss": 0.5029, "num_tokens": 560660.0, "step": 1314 }, { "epoch": 0.43833333333333335, "grad_norm": 14.53799819946289, "learning_rate": 1.1587628865979384e-05, "loss": 0.3223, "num_tokens": 561202.0, "step": 1315 }, { "epoch": 0.43866666666666665, "grad_norm": 11.293001174926758, "learning_rate": 1.1580756013745707e-05, "loss": 0.1472, "num_tokens": 561861.0, "step": 1316 }, { "epoch": 0.439, "grad_norm": 23.38832664489746, "learning_rate": 1.157388316151203e-05, "loss": 0.4812, "num_tokens": 562204.0, "step": 1317 }, { "epoch": 0.43933333333333335, "grad_norm": 13.496563911437988, "learning_rate": 1.1567010309278353e-05, "loss": 0.2533, "num_tokens": 562694.0, "step": 1318 }, { "epoch": 0.43966666666666665, "grad_norm": 15.258307456970215, "learning_rate": 1.1560137457044673e-05, "loss": 0.31, "num_tokens": 563154.0, "step": 1319 }, { "epoch": 0.44, "grad_norm": 22.31048011779785, "learning_rate": 1.1553264604810996e-05, "loss": 0.3133, "num_tokens": 563465.0, "step": 1320 }, { "epoch": 0.44033333333333335, "grad_norm": 19.29899787902832, "learning_rate": 1.1546391752577319e-05, "loss": 0.3548, "num_tokens": 563870.0, "step": 1321 }, { "epoch": 0.44066666666666665, "grad_norm": 19.102373123168945, "learning_rate": 1.1539518900343642e-05, "loss": 0.3984, "num_tokens": 564269.0, "step": 1322 }, { "epoch": 0.441, "grad_norm": 28.973669052124023, "learning_rate": 1.1532646048109965e-05, "loss": 0.5267, "num_tokens": 564516.0, "step": 1323 }, { "epoch": 0.44133333333333336, "grad_norm": 19.840120315551758, "learning_rate": 1.1525773195876288e-05, "loss": 0.316, "num_tokens": 564862.0, "step": 1324 }, { "epoch": 0.44166666666666665, "grad_norm": 17.861753463745117, "learning_rate": 1.1518900343642611e-05, "loss": 0.3729, "num_tokens": 565249.0, "step": 1325 }, { "epoch": 0.442, "grad_norm": 25.266443252563477, "learning_rate": 1.1512027491408934e-05, "loss": 0.5745, "num_tokens": 565619.0, "step": 1326 }, { "epoch": 0.44233333333333336, "grad_norm": 24.72895622253418, "learning_rate": 1.1505154639175259e-05, "loss": 0.5263, "num_tokens": 565972.0, "step": 1327 }, { "epoch": 0.44266666666666665, "grad_norm": 15.950621604919434, "learning_rate": 1.1498281786941582e-05, "loss": 0.3663, "num_tokens": 566436.0, "step": 1328 }, { "epoch": 0.443, "grad_norm": 28.02574348449707, "learning_rate": 1.1491408934707905e-05, "loss": 0.5466, "num_tokens": 566746.0, "step": 1329 }, { "epoch": 0.44333333333333336, "grad_norm": 16.716169357299805, "learning_rate": 1.1484536082474228e-05, "loss": 0.3244, "num_tokens": 567207.0, "step": 1330 }, { "epoch": 0.44366666666666665, "grad_norm": 15.579862594604492, "learning_rate": 1.147766323024055e-05, "loss": 0.3544, "num_tokens": 567853.0, "step": 1331 }, { "epoch": 0.444, "grad_norm": 14.866025924682617, "learning_rate": 1.1470790378006874e-05, "loss": 0.2395, "num_tokens": 568218.0, "step": 1332 }, { "epoch": 0.44433333333333336, "grad_norm": 23.77474021911621, "learning_rate": 1.1463917525773197e-05, "loss": 0.4613, "num_tokens": 568486.0, "step": 1333 }, { "epoch": 0.44466666666666665, "grad_norm": 16.19207191467285, "learning_rate": 1.145704467353952e-05, "loss": 0.2845, "num_tokens": 568905.0, "step": 1334 }, { "epoch": 0.445, "grad_norm": 23.419513702392578, "learning_rate": 1.1450171821305843e-05, "loss": 0.5657, "num_tokens": 569330.0, "step": 1335 }, { "epoch": 0.44533333333333336, "grad_norm": 24.073101043701172, "learning_rate": 1.1443298969072166e-05, "loss": 0.5091, "num_tokens": 569696.0, "step": 1336 }, { "epoch": 0.44566666666666666, "grad_norm": 19.832496643066406, "learning_rate": 1.1436426116838489e-05, "loss": 0.3226, "num_tokens": 570092.0, "step": 1337 }, { "epoch": 0.446, "grad_norm": 11.585661888122559, "learning_rate": 1.1429553264604812e-05, "loss": 0.2709, "num_tokens": 570656.0, "step": 1338 }, { "epoch": 0.44633333333333336, "grad_norm": 14.276586532592773, "learning_rate": 1.1422680412371135e-05, "loss": 0.3102, "num_tokens": 571230.0, "step": 1339 }, { "epoch": 0.44666666666666666, "grad_norm": 9.775181770324707, "learning_rate": 1.1415807560137458e-05, "loss": 0.2117, "num_tokens": 571968.0, "step": 1340 }, { "epoch": 0.447, "grad_norm": 26.321640014648438, "learning_rate": 1.140893470790378e-05, "loss": 0.5138, "num_tokens": 572257.0, "step": 1341 }, { "epoch": 0.44733333333333336, "grad_norm": 20.626794815063477, "learning_rate": 1.1402061855670104e-05, "loss": 0.3329, "num_tokens": 572592.0, "step": 1342 }, { "epoch": 0.44766666666666666, "grad_norm": 15.134878158569336, "learning_rate": 1.1395189003436427e-05, "loss": 0.3073, "num_tokens": 572986.0, "step": 1343 }, { "epoch": 0.448, "grad_norm": 13.7029447555542, "learning_rate": 1.138831615120275e-05, "loss": 0.2904, "num_tokens": 573449.0, "step": 1344 }, { "epoch": 0.4483333333333333, "grad_norm": 24.65191078186035, "learning_rate": 1.1381443298969073e-05, "loss": 0.4012, "num_tokens": 573797.0, "step": 1345 }, { "epoch": 0.44866666666666666, "grad_norm": 16.665315628051758, "learning_rate": 1.1374570446735396e-05, "loss": 0.3302, "num_tokens": 574250.0, "step": 1346 }, { "epoch": 0.449, "grad_norm": 12.39387035369873, "learning_rate": 1.1367697594501719e-05, "loss": 0.2787, "num_tokens": 575003.0, "step": 1347 }, { "epoch": 0.4493333333333333, "grad_norm": 24.249902725219727, "learning_rate": 1.1360824742268042e-05, "loss": 0.399, "num_tokens": 575263.0, "step": 1348 }, { "epoch": 0.44966666666666666, "grad_norm": 13.826845169067383, "learning_rate": 1.1353951890034365e-05, "loss": 0.2701, "num_tokens": 575700.0, "step": 1349 }, { "epoch": 0.45, "grad_norm": 21.091537475585938, "learning_rate": 1.1347079037800688e-05, "loss": 0.4475, "num_tokens": 576074.0, "step": 1350 }, { "epoch": 0.4503333333333333, "grad_norm": 26.500247955322266, "learning_rate": 1.134020618556701e-05, "loss": 0.502, "num_tokens": 576448.0, "step": 1351 }, { "epoch": 0.45066666666666666, "grad_norm": 17.58233642578125, "learning_rate": 1.1333333333333334e-05, "loss": 0.2816, "num_tokens": 576792.0, "step": 1352 }, { "epoch": 0.451, "grad_norm": 18.188268661499023, "learning_rate": 1.1326460481099657e-05, "loss": 0.357, "num_tokens": 577226.0, "step": 1353 }, { "epoch": 0.4513333333333333, "grad_norm": 15.37666130065918, "learning_rate": 1.131958762886598e-05, "loss": 0.2955, "num_tokens": 577559.0, "step": 1354 }, { "epoch": 0.45166666666666666, "grad_norm": 14.771276473999023, "learning_rate": 1.1312714776632303e-05, "loss": 0.2444, "num_tokens": 577925.0, "step": 1355 }, { "epoch": 0.452, "grad_norm": 29.139705657958984, "learning_rate": 1.1305841924398626e-05, "loss": 0.4964, "num_tokens": 578193.0, "step": 1356 }, { "epoch": 0.4523333333333333, "grad_norm": 15.176148414611816, "learning_rate": 1.1298969072164949e-05, "loss": 0.3426, "num_tokens": 578687.0, "step": 1357 }, { "epoch": 0.45266666666666666, "grad_norm": 25.308311462402344, "learning_rate": 1.1292096219931272e-05, "loss": 0.3815, "num_tokens": 578954.0, "step": 1358 }, { "epoch": 0.453, "grad_norm": 26.150617599487305, "learning_rate": 1.1285223367697595e-05, "loss": 0.5285, "num_tokens": 579229.0, "step": 1359 }, { "epoch": 0.4533333333333333, "grad_norm": 29.54701042175293, "learning_rate": 1.1278350515463918e-05, "loss": 0.5745, "num_tokens": 579511.0, "step": 1360 }, { "epoch": 0.45366666666666666, "grad_norm": 32.8361701965332, "learning_rate": 1.1271477663230241e-05, "loss": 0.5979, "num_tokens": 579706.0, "step": 1361 }, { "epoch": 0.454, "grad_norm": 22.186201095581055, "learning_rate": 1.1264604810996564e-05, "loss": 0.4506, "num_tokens": 579978.0, "step": 1362 }, { "epoch": 0.4543333333333333, "grad_norm": 13.702542304992676, "learning_rate": 1.1257731958762887e-05, "loss": 0.4781, "num_tokens": 580756.0, "step": 1363 }, { "epoch": 0.45466666666666666, "grad_norm": 17.78874969482422, "learning_rate": 1.125085910652921e-05, "loss": 0.334, "num_tokens": 581104.0, "step": 1364 }, { "epoch": 0.455, "grad_norm": 30.389001846313477, "learning_rate": 1.1243986254295533e-05, "loss": 0.5479, "num_tokens": 581309.0, "step": 1365 }, { "epoch": 0.4553333333333333, "grad_norm": 16.66348648071289, "learning_rate": 1.1237113402061856e-05, "loss": 0.3217, "num_tokens": 581731.0, "step": 1366 }, { "epoch": 0.45566666666666666, "grad_norm": 23.651884078979492, "learning_rate": 1.1230240549828179e-05, "loss": 0.4013, "num_tokens": 582057.0, "step": 1367 }, { "epoch": 0.456, "grad_norm": 24.51853370666504, "learning_rate": 1.1223367697594502e-05, "loss": 0.5781, "num_tokens": 582499.0, "step": 1368 }, { "epoch": 0.4563333333333333, "grad_norm": 12.375947952270508, "learning_rate": 1.1216494845360825e-05, "loss": 0.2132, "num_tokens": 583135.0, "step": 1369 }, { "epoch": 0.45666666666666667, "grad_norm": 11.235764503479004, "learning_rate": 1.120962199312715e-05, "loss": 0.1078, "num_tokens": 583604.0, "step": 1370 }, { "epoch": 0.457, "grad_norm": 21.929950714111328, "learning_rate": 1.1202749140893473e-05, "loss": 0.4775, "num_tokens": 583902.0, "step": 1371 }, { "epoch": 0.4573333333333333, "grad_norm": 19.588455200195312, "learning_rate": 1.1195876288659796e-05, "loss": 0.503, "num_tokens": 584257.0, "step": 1372 }, { "epoch": 0.45766666666666667, "grad_norm": 18.934507369995117, "learning_rate": 1.1189003436426119e-05, "loss": 0.323, "num_tokens": 584655.0, "step": 1373 }, { "epoch": 0.458, "grad_norm": 15.066242218017578, "learning_rate": 1.1182130584192442e-05, "loss": 0.3264, "num_tokens": 585176.0, "step": 1374 }, { "epoch": 0.4583333333333333, "grad_norm": 13.871190071105957, "learning_rate": 1.1175257731958765e-05, "loss": 0.2285, "num_tokens": 585515.0, "step": 1375 }, { "epoch": 0.45866666666666667, "grad_norm": 22.841554641723633, "learning_rate": 1.1168384879725088e-05, "loss": 0.3305, "num_tokens": 585832.0, "step": 1376 }, { "epoch": 0.459, "grad_norm": 21.380212783813477, "learning_rate": 1.116151202749141e-05, "loss": 0.5035, "num_tokens": 586204.0, "step": 1377 }, { "epoch": 0.4593333333333333, "grad_norm": 17.374412536621094, "learning_rate": 1.1154639175257734e-05, "loss": 0.4169, "num_tokens": 586556.0, "step": 1378 }, { "epoch": 0.45966666666666667, "grad_norm": 17.676971435546875, "learning_rate": 1.1147766323024057e-05, "loss": 0.3717, "num_tokens": 587012.0, "step": 1379 }, { "epoch": 0.46, "grad_norm": 27.943618774414062, "learning_rate": 1.114089347079038e-05, "loss": 0.3993, "num_tokens": 587295.0, "step": 1380 }, { "epoch": 0.4603333333333333, "grad_norm": 23.8983211517334, "learning_rate": 1.1134020618556703e-05, "loss": 0.4778, "num_tokens": 587573.0, "step": 1381 }, { "epoch": 0.46066666666666667, "grad_norm": 42.71469497680664, "learning_rate": 1.1127147766323026e-05, "loss": 0.4395, "num_tokens": 587982.0, "step": 1382 }, { "epoch": 0.461, "grad_norm": 38.62221908569336, "learning_rate": 1.1120274914089349e-05, "loss": 0.7187, "num_tokens": 588275.0, "step": 1383 }, { "epoch": 0.4613333333333333, "grad_norm": 30.30940818786621, "learning_rate": 1.1113402061855672e-05, "loss": 0.7289, "num_tokens": 588653.0, "step": 1384 }, { "epoch": 0.46166666666666667, "grad_norm": 24.78972816467285, "learning_rate": 1.1106529209621995e-05, "loss": 0.4774, "num_tokens": 588982.0, "step": 1385 }, { "epoch": 0.462, "grad_norm": 13.877697944641113, "learning_rate": 1.1099656357388318e-05, "loss": 0.2555, "num_tokens": 589603.0, "step": 1386 }, { "epoch": 0.4623333333333333, "grad_norm": 18.60419464111328, "learning_rate": 1.109278350515464e-05, "loss": 0.4301, "num_tokens": 590195.0, "step": 1387 }, { "epoch": 0.46266666666666667, "grad_norm": 17.15994644165039, "learning_rate": 1.1085910652920964e-05, "loss": 0.3041, "num_tokens": 590516.0, "step": 1388 }, { "epoch": 0.463, "grad_norm": 14.971961975097656, "learning_rate": 1.1079037800687287e-05, "loss": 0.2982, "num_tokens": 590936.0, "step": 1389 }, { "epoch": 0.4633333333333333, "grad_norm": 29.824369430541992, "learning_rate": 1.107216494845361e-05, "loss": 0.6524, "num_tokens": 591270.0, "step": 1390 }, { "epoch": 0.46366666666666667, "grad_norm": 12.69624137878418, "learning_rate": 1.1065292096219933e-05, "loss": 0.2218, "num_tokens": 591955.0, "step": 1391 }, { "epoch": 0.464, "grad_norm": 28.488555908203125, "learning_rate": 1.1058419243986256e-05, "loss": 0.7368, "num_tokens": 592248.0, "step": 1392 }, { "epoch": 0.4643333333333333, "grad_norm": 23.64630699157715, "learning_rate": 1.1051546391752579e-05, "loss": 0.3843, "num_tokens": 592571.0, "step": 1393 }, { "epoch": 0.4646666666666667, "grad_norm": 23.983325958251953, "learning_rate": 1.1044673539518902e-05, "loss": 0.4211, "num_tokens": 592892.0, "step": 1394 }, { "epoch": 0.465, "grad_norm": 23.42536735534668, "learning_rate": 1.1037800687285225e-05, "loss": 0.4357, "num_tokens": 593196.0, "step": 1395 }, { "epoch": 0.4653333333333333, "grad_norm": 18.125877380371094, "learning_rate": 1.1030927835051548e-05, "loss": 0.4107, "num_tokens": 593576.0, "step": 1396 }, { "epoch": 0.4656666666666667, "grad_norm": 34.619136810302734, "learning_rate": 1.1024054982817871e-05, "loss": 0.5078, "num_tokens": 593993.0, "step": 1397 }, { "epoch": 0.466, "grad_norm": 21.12828254699707, "learning_rate": 1.1017182130584194e-05, "loss": 0.402, "num_tokens": 594526.0, "step": 1398 }, { "epoch": 0.4663333333333333, "grad_norm": 27.182037353515625, "learning_rate": 1.1010309278350517e-05, "loss": 0.3868, "num_tokens": 594827.0, "step": 1399 }, { "epoch": 0.4666666666666667, "grad_norm": 14.657265663146973, "learning_rate": 1.100343642611684e-05, "loss": 0.3358, "num_tokens": 595240.0, "step": 1400 }, { "epoch": 0.467, "grad_norm": 17.072227478027344, "learning_rate": 1.0996563573883163e-05, "loss": 0.3088, "num_tokens": 595798.0, "step": 1401 }, { "epoch": 0.4673333333333333, "grad_norm": 18.20490074157715, "learning_rate": 1.0989690721649486e-05, "loss": 0.3309, "num_tokens": 596257.0, "step": 1402 }, { "epoch": 0.4676666666666667, "grad_norm": 14.351771354675293, "learning_rate": 1.0982817869415809e-05, "loss": 0.3004, "num_tokens": 596758.0, "step": 1403 }, { "epoch": 0.468, "grad_norm": 20.45856285095215, "learning_rate": 1.0975945017182132e-05, "loss": 0.4024, "num_tokens": 597087.0, "step": 1404 }, { "epoch": 0.4683333333333333, "grad_norm": 33.19240188598633, "learning_rate": 1.0969072164948455e-05, "loss": 0.4561, "num_tokens": 597311.0, "step": 1405 }, { "epoch": 0.4686666666666667, "grad_norm": 22.54265785217285, "learning_rate": 1.0962199312714778e-05, "loss": 0.5571, "num_tokens": 597727.0, "step": 1406 }, { "epoch": 0.469, "grad_norm": 18.318431854248047, "learning_rate": 1.0955326460481101e-05, "loss": 0.2842, "num_tokens": 598123.0, "step": 1407 }, { "epoch": 0.4693333333333333, "grad_norm": 33.44875717163086, "learning_rate": 1.0948453608247424e-05, "loss": 0.5453, "num_tokens": 598325.0, "step": 1408 }, { "epoch": 0.4696666666666667, "grad_norm": 19.007816314697266, "learning_rate": 1.0941580756013747e-05, "loss": 0.3386, "num_tokens": 598651.0, "step": 1409 }, { "epoch": 0.47, "grad_norm": 17.334741592407227, "learning_rate": 1.0934707903780068e-05, "loss": 0.3237, "num_tokens": 598986.0, "step": 1410 }, { "epoch": 0.4703333333333333, "grad_norm": 19.608213424682617, "learning_rate": 1.0927835051546391e-05, "loss": 0.3166, "num_tokens": 599332.0, "step": 1411 }, { "epoch": 0.4706666666666667, "grad_norm": 22.48741912841797, "learning_rate": 1.0920962199312714e-05, "loss": 0.445, "num_tokens": 599747.0, "step": 1412 }, { "epoch": 0.471, "grad_norm": 21.5255069732666, "learning_rate": 1.0914089347079037e-05, "loss": 0.5165, "num_tokens": 600123.0, "step": 1413 }, { "epoch": 0.4713333333333333, "grad_norm": 14.07625961303711, "learning_rate": 1.090721649484536e-05, "loss": 0.1782, "num_tokens": 600497.0, "step": 1414 }, { "epoch": 0.4716666666666667, "grad_norm": 12.38440227508545, "learning_rate": 1.0900343642611683e-05, "loss": 0.2301, "num_tokens": 601199.0, "step": 1415 }, { "epoch": 0.472, "grad_norm": 19.85643768310547, "learning_rate": 1.0893470790378006e-05, "loss": 0.194, "num_tokens": 602074.0, "step": 1416 }, { "epoch": 0.4723333333333333, "grad_norm": 25.574840545654297, "learning_rate": 1.088659793814433e-05, "loss": 0.3323, "num_tokens": 602315.0, "step": 1417 }, { "epoch": 0.4726666666666667, "grad_norm": 15.643719673156738, "learning_rate": 1.0879725085910652e-05, "loss": 0.2521, "num_tokens": 602784.0, "step": 1418 }, { "epoch": 0.473, "grad_norm": 17.031917572021484, "learning_rate": 1.0872852233676975e-05, "loss": 0.3555, "num_tokens": 603147.0, "step": 1419 }, { "epoch": 0.47333333333333333, "grad_norm": 14.734243392944336, "learning_rate": 1.0865979381443298e-05, "loss": 0.3557, "num_tokens": 603648.0, "step": 1420 }, { "epoch": 0.4736666666666667, "grad_norm": 10.709941864013672, "learning_rate": 1.0859106529209621e-05, "loss": 0.179, "num_tokens": 604200.0, "step": 1421 }, { "epoch": 0.474, "grad_norm": 22.873188018798828, "learning_rate": 1.0852233676975944e-05, "loss": 0.5428, "num_tokens": 604551.0, "step": 1422 }, { "epoch": 0.47433333333333333, "grad_norm": 20.52280044555664, "learning_rate": 1.0845360824742267e-05, "loss": 0.4042, "num_tokens": 604891.0, "step": 1423 }, { "epoch": 0.4746666666666667, "grad_norm": 24.621057510375977, "learning_rate": 1.083848797250859e-05, "loss": 0.6822, "num_tokens": 605218.0, "step": 1424 }, { "epoch": 0.475, "grad_norm": 11.100407600402832, "learning_rate": 1.0831615120274913e-05, "loss": 0.1942, "num_tokens": 605959.0, "step": 1425 }, { "epoch": 0.47533333333333333, "grad_norm": 14.936591148376465, "learning_rate": 1.0824742268041238e-05, "loss": 0.3441, "num_tokens": 606455.0, "step": 1426 }, { "epoch": 0.4756666666666667, "grad_norm": 19.632335662841797, "learning_rate": 1.0817869415807561e-05, "loss": 0.3433, "num_tokens": 606889.0, "step": 1427 }, { "epoch": 0.476, "grad_norm": 14.787837028503418, "learning_rate": 1.0810996563573884e-05, "loss": 0.3124, "num_tokens": 607446.0, "step": 1428 }, { "epoch": 0.47633333333333333, "grad_norm": 13.69771957397461, "learning_rate": 1.0804123711340207e-05, "loss": 0.2765, "num_tokens": 607893.0, "step": 1429 }, { "epoch": 0.4766666666666667, "grad_norm": 12.08553409576416, "learning_rate": 1.079725085910653e-05, "loss": 0.2497, "num_tokens": 608547.0, "step": 1430 }, { "epoch": 0.477, "grad_norm": 21.432886123657227, "learning_rate": 1.0790378006872853e-05, "loss": 0.5398, "num_tokens": 608995.0, "step": 1431 }, { "epoch": 0.47733333333333333, "grad_norm": 25.974964141845703, "learning_rate": 1.0783505154639176e-05, "loss": 0.5046, "num_tokens": 609335.0, "step": 1432 }, { "epoch": 0.4776666666666667, "grad_norm": 41.29611587524414, "learning_rate": 1.07766323024055e-05, "loss": 0.3034, "num_tokens": 609729.0, "step": 1433 }, { "epoch": 0.478, "grad_norm": 13.464903831481934, "learning_rate": 1.0769759450171822e-05, "loss": 0.1828, "num_tokens": 610298.0, "step": 1434 }, { "epoch": 0.47833333333333333, "grad_norm": 21.744903564453125, "learning_rate": 1.0762886597938145e-05, "loss": 0.4348, "num_tokens": 610652.0, "step": 1435 }, { "epoch": 0.4786666666666667, "grad_norm": 14.539108276367188, "learning_rate": 1.0756013745704468e-05, "loss": 0.2434, "num_tokens": 611131.0, "step": 1436 }, { "epoch": 0.479, "grad_norm": 20.36038589477539, "learning_rate": 1.0749140893470791e-05, "loss": 0.5628, "num_tokens": 611585.0, "step": 1437 }, { "epoch": 0.47933333333333333, "grad_norm": 13.30573844909668, "learning_rate": 1.0742268041237114e-05, "loss": 0.2466, "num_tokens": 612011.0, "step": 1438 }, { "epoch": 0.4796666666666667, "grad_norm": 16.987918853759766, "learning_rate": 1.0735395189003437e-05, "loss": 0.313, "num_tokens": 612428.0, "step": 1439 }, { "epoch": 0.48, "grad_norm": 19.771747589111328, "learning_rate": 1.072852233676976e-05, "loss": 0.3455, "num_tokens": 613136.0, "step": 1440 }, { "epoch": 0.48033333333333333, "grad_norm": 31.52718162536621, "learning_rate": 1.0721649484536083e-05, "loss": 0.4548, "num_tokens": 613410.0, "step": 1441 }, { "epoch": 0.4806666666666667, "grad_norm": 29.562095642089844, "learning_rate": 1.0714776632302406e-05, "loss": 0.754, "num_tokens": 613711.0, "step": 1442 }, { "epoch": 0.481, "grad_norm": 15.122069358825684, "learning_rate": 1.070790378006873e-05, "loss": 0.2377, "num_tokens": 614222.0, "step": 1443 }, { "epoch": 0.48133333333333334, "grad_norm": 25.376615524291992, "learning_rate": 1.0701030927835052e-05, "loss": 0.2636, "num_tokens": 614633.0, "step": 1444 }, { "epoch": 0.4816666666666667, "grad_norm": 28.162761688232422, "learning_rate": 1.0694158075601375e-05, "loss": 0.4918, "num_tokens": 614940.0, "step": 1445 }, { "epoch": 0.482, "grad_norm": 15.553528785705566, "learning_rate": 1.0687285223367698e-05, "loss": 0.2726, "num_tokens": 615279.0, "step": 1446 }, { "epoch": 0.48233333333333334, "grad_norm": 14.8878173828125, "learning_rate": 1.0680412371134021e-05, "loss": 0.2145, "num_tokens": 615739.0, "step": 1447 }, { "epoch": 0.4826666666666667, "grad_norm": 18.700183868408203, "learning_rate": 1.0673539518900344e-05, "loss": 0.3923, "num_tokens": 616214.0, "step": 1448 }, { "epoch": 0.483, "grad_norm": 17.93824577331543, "learning_rate": 1.0666666666666667e-05, "loss": 0.3595, "num_tokens": 616684.0, "step": 1449 }, { "epoch": 0.48333333333333334, "grad_norm": 24.336326599121094, "learning_rate": 1.065979381443299e-05, "loss": 0.4246, "num_tokens": 616985.0, "step": 1450 }, { "epoch": 0.4836666666666667, "grad_norm": 26.459728240966797, "learning_rate": 1.0652920962199313e-05, "loss": 0.4352, "num_tokens": 617529.0, "step": 1451 }, { "epoch": 0.484, "grad_norm": 18.04843521118164, "learning_rate": 1.0646048109965636e-05, "loss": 0.3496, "num_tokens": 618056.0, "step": 1452 }, { "epoch": 0.48433333333333334, "grad_norm": 12.917251586914062, "learning_rate": 1.063917525773196e-05, "loss": 0.2506, "num_tokens": 618833.0, "step": 1453 }, { "epoch": 0.4846666666666667, "grad_norm": 17.323612213134766, "learning_rate": 1.0632302405498282e-05, "loss": 0.2864, "num_tokens": 619386.0, "step": 1454 }, { "epoch": 0.485, "grad_norm": 13.218327522277832, "learning_rate": 1.0625429553264605e-05, "loss": 0.2831, "num_tokens": 619985.0, "step": 1455 }, { "epoch": 0.48533333333333334, "grad_norm": 13.999732971191406, "learning_rate": 1.0618556701030928e-05, "loss": 0.3388, "num_tokens": 620942.0, "step": 1456 }, { "epoch": 0.4856666666666667, "grad_norm": 12.93033504486084, "learning_rate": 1.0611683848797251e-05, "loss": 0.2309, "num_tokens": 621473.0, "step": 1457 }, { "epoch": 0.486, "grad_norm": 16.080791473388672, "learning_rate": 1.0604810996563574e-05, "loss": 0.3098, "num_tokens": 621963.0, "step": 1458 }, { "epoch": 0.48633333333333334, "grad_norm": 11.658478736877441, "learning_rate": 1.0597938144329897e-05, "loss": 0.2017, "num_tokens": 622555.0, "step": 1459 }, { "epoch": 0.4866666666666667, "grad_norm": 27.520029067993164, "learning_rate": 1.059106529209622e-05, "loss": 0.567, "num_tokens": 622893.0, "step": 1460 }, { "epoch": 0.487, "grad_norm": 27.458402633666992, "learning_rate": 1.0584192439862543e-05, "loss": 0.5651, "num_tokens": 623227.0, "step": 1461 }, { "epoch": 0.48733333333333334, "grad_norm": 14.043485641479492, "learning_rate": 1.0577319587628866e-05, "loss": 0.2545, "num_tokens": 623760.0, "step": 1462 }, { "epoch": 0.4876666666666667, "grad_norm": 17.796863555908203, "learning_rate": 1.057044673539519e-05, "loss": 0.3368, "num_tokens": 624121.0, "step": 1463 }, { "epoch": 0.488, "grad_norm": 28.98230743408203, "learning_rate": 1.0563573883161512e-05, "loss": 0.6576, "num_tokens": 624419.0, "step": 1464 }, { "epoch": 0.48833333333333334, "grad_norm": 15.508382797241211, "learning_rate": 1.0556701030927835e-05, "loss": 0.3107, "num_tokens": 624914.0, "step": 1465 }, { "epoch": 0.4886666666666667, "grad_norm": 20.6390438079834, "learning_rate": 1.0549828178694158e-05, "loss": 0.294, "num_tokens": 625259.0, "step": 1466 }, { "epoch": 0.489, "grad_norm": 24.367109298706055, "learning_rate": 1.0542955326460481e-05, "loss": 0.4881, "num_tokens": 625589.0, "step": 1467 }, { "epoch": 0.48933333333333334, "grad_norm": 32.030113220214844, "learning_rate": 1.0536082474226804e-05, "loss": 0.4575, "num_tokens": 625827.0, "step": 1468 }, { "epoch": 0.48966666666666664, "grad_norm": 28.528554916381836, "learning_rate": 1.052920962199313e-05, "loss": 0.5076, "num_tokens": 626124.0, "step": 1469 }, { "epoch": 0.49, "grad_norm": 15.845307350158691, "learning_rate": 1.0522336769759452e-05, "loss": 0.3878, "num_tokens": 626692.0, "step": 1470 }, { "epoch": 0.49033333333333334, "grad_norm": 28.297088623046875, "learning_rate": 1.0515463917525775e-05, "loss": 0.1609, "num_tokens": 627421.0, "step": 1471 }, { "epoch": 0.49066666666666664, "grad_norm": 16.683992385864258, "learning_rate": 1.0508591065292098e-05, "loss": 0.3289, "num_tokens": 627830.0, "step": 1472 }, { "epoch": 0.491, "grad_norm": 18.234909057617188, "learning_rate": 1.0501718213058421e-05, "loss": 0.3546, "num_tokens": 628146.0, "step": 1473 }, { "epoch": 0.49133333333333334, "grad_norm": 19.94565773010254, "learning_rate": 1.0494845360824744e-05, "loss": 0.3975, "num_tokens": 628550.0, "step": 1474 }, { "epoch": 0.49166666666666664, "grad_norm": 18.998151779174805, "learning_rate": 1.0487972508591067e-05, "loss": 0.4137, "num_tokens": 628910.0, "step": 1475 }, { "epoch": 0.492, "grad_norm": 13.889488220214844, "learning_rate": 1.048109965635739e-05, "loss": 0.2498, "num_tokens": 629495.0, "step": 1476 }, { "epoch": 0.49233333333333335, "grad_norm": 12.159367561340332, "learning_rate": 1.0474226804123713e-05, "loss": 0.1785, "num_tokens": 630151.0, "step": 1477 }, { "epoch": 0.49266666666666664, "grad_norm": 27.279443740844727, "learning_rate": 1.0467353951890036e-05, "loss": 0.6431, "num_tokens": 630435.0, "step": 1478 }, { "epoch": 0.493, "grad_norm": 19.509685516357422, "learning_rate": 1.046048109965636e-05, "loss": 0.3863, "num_tokens": 630819.0, "step": 1479 }, { "epoch": 0.49333333333333335, "grad_norm": 13.035381317138672, "learning_rate": 1.0453608247422682e-05, "loss": 0.2972, "num_tokens": 631240.0, "step": 1480 }, { "epoch": 0.49366666666666664, "grad_norm": 17.03543472290039, "learning_rate": 1.0446735395189005e-05, "loss": 0.2737, "num_tokens": 631636.0, "step": 1481 }, { "epoch": 0.494, "grad_norm": 15.378252029418945, "learning_rate": 1.0439862542955328e-05, "loss": 0.334, "num_tokens": 632148.0, "step": 1482 }, { "epoch": 0.49433333333333335, "grad_norm": 17.424102783203125, "learning_rate": 1.0432989690721651e-05, "loss": 0.3999, "num_tokens": 632565.0, "step": 1483 }, { "epoch": 0.49466666666666664, "grad_norm": 44.98781967163086, "learning_rate": 1.0426116838487974e-05, "loss": 0.3707, "num_tokens": 632966.0, "step": 1484 }, { "epoch": 0.495, "grad_norm": 20.519229888916016, "learning_rate": 1.0419243986254297e-05, "loss": 0.3028, "num_tokens": 633208.0, "step": 1485 }, { "epoch": 0.49533333333333335, "grad_norm": 27.054763793945312, "learning_rate": 1.041237113402062e-05, "loss": 0.4608, "num_tokens": 633563.0, "step": 1486 }, { "epoch": 0.49566666666666664, "grad_norm": 17.385347366333008, "learning_rate": 1.0405498281786943e-05, "loss": 0.4353, "num_tokens": 634001.0, "step": 1487 }, { "epoch": 0.496, "grad_norm": 17.56500816345215, "learning_rate": 1.0398625429553266e-05, "loss": 0.3548, "num_tokens": 634432.0, "step": 1488 }, { "epoch": 0.49633333333333335, "grad_norm": 18.9477596282959, "learning_rate": 1.039175257731959e-05, "loss": 0.2358, "num_tokens": 634782.0, "step": 1489 }, { "epoch": 0.49666666666666665, "grad_norm": 35.60940170288086, "learning_rate": 1.0384879725085912e-05, "loss": 0.6072, "num_tokens": 634990.0, "step": 1490 }, { "epoch": 0.497, "grad_norm": 19.669963836669922, "learning_rate": 1.0378006872852235e-05, "loss": 0.264, "num_tokens": 635261.0, "step": 1491 }, { "epoch": 0.49733333333333335, "grad_norm": 43.9347038269043, "learning_rate": 1.0371134020618558e-05, "loss": 0.9328, "num_tokens": 635446.0, "step": 1492 }, { "epoch": 0.49766666666666665, "grad_norm": 17.315271377563477, "learning_rate": 1.0364261168384881e-05, "loss": 0.2905, "num_tokens": 635798.0, "step": 1493 }, { "epoch": 0.498, "grad_norm": 29.793596267700195, "learning_rate": 1.0357388316151204e-05, "loss": 0.3704, "num_tokens": 636294.0, "step": 1494 }, { "epoch": 0.49833333333333335, "grad_norm": 12.63647747039795, "learning_rate": 1.0350515463917527e-05, "loss": 0.2279, "num_tokens": 636816.0, "step": 1495 }, { "epoch": 0.49866666666666665, "grad_norm": 11.87566089630127, "learning_rate": 1.034364261168385e-05, "loss": 0.1947, "num_tokens": 637468.0, "step": 1496 }, { "epoch": 0.499, "grad_norm": 32.41094970703125, "learning_rate": 1.0336769759450173e-05, "loss": 0.3994, "num_tokens": 638140.0, "step": 1497 }, { "epoch": 0.49933333333333335, "grad_norm": 25.97403335571289, "learning_rate": 1.0329896907216496e-05, "loss": 0.4028, "num_tokens": 638408.0, "step": 1498 }, { "epoch": 0.49966666666666665, "grad_norm": 18.66462516784668, "learning_rate": 1.032302405498282e-05, "loss": 0.645, "num_tokens": 638842.0, "step": 1499 }, { "epoch": 0.5, "grad_norm": 16.603498458862305, "learning_rate": 1.0316151202749142e-05, "loss": 0.2554, "num_tokens": 639276.0, "step": 1500 }, { "epoch": 0.5003333333333333, "grad_norm": 21.405609130859375, "learning_rate": 1.0309278350515464e-05, "loss": 0.2615, "num_tokens": 639717.0, "step": 1501 }, { "epoch": 0.5006666666666667, "grad_norm": 19.36146354675293, "learning_rate": 1.0302405498281787e-05, "loss": 0.3639, "num_tokens": 640027.0, "step": 1502 }, { "epoch": 0.501, "grad_norm": 15.974677085876465, "learning_rate": 1.029553264604811e-05, "loss": 0.2765, "num_tokens": 640475.0, "step": 1503 }, { "epoch": 0.5013333333333333, "grad_norm": 32.77470016479492, "learning_rate": 1.0288659793814433e-05, "loss": 0.7011, "num_tokens": 640811.0, "step": 1504 }, { "epoch": 0.5016666666666667, "grad_norm": 27.21351432800293, "learning_rate": 1.0281786941580756e-05, "loss": 0.4984, "num_tokens": 641092.0, "step": 1505 }, { "epoch": 0.502, "grad_norm": 15.395483016967773, "learning_rate": 1.0274914089347079e-05, "loss": 0.3346, "num_tokens": 641754.0, "step": 1506 }, { "epoch": 0.5023333333333333, "grad_norm": 8.758310317993164, "learning_rate": 1.0268041237113402e-05, "loss": 0.1189, "num_tokens": 642274.0, "step": 1507 }, { "epoch": 0.5026666666666667, "grad_norm": 15.152670860290527, "learning_rate": 1.0261168384879725e-05, "loss": 0.2531, "num_tokens": 642680.0, "step": 1508 }, { "epoch": 0.503, "grad_norm": 30.830265045166016, "learning_rate": 1.0254295532646048e-05, "loss": 0.3906, "num_tokens": 643178.0, "step": 1509 }, { "epoch": 0.5033333333333333, "grad_norm": 31.227558135986328, "learning_rate": 1.024742268041237e-05, "loss": 0.5125, "num_tokens": 643449.0, "step": 1510 }, { "epoch": 0.5036666666666667, "grad_norm": 26.349740982055664, "learning_rate": 1.0240549828178694e-05, "loss": 0.5158, "num_tokens": 644057.0, "step": 1511 }, { "epoch": 0.504, "grad_norm": 14.945535659790039, "learning_rate": 1.0233676975945017e-05, "loss": 0.2262, "num_tokens": 644708.0, "step": 1512 }, { "epoch": 0.5043333333333333, "grad_norm": 26.34235382080078, "learning_rate": 1.022680412371134e-05, "loss": 0.4671, "num_tokens": 644988.0, "step": 1513 }, { "epoch": 0.5046666666666667, "grad_norm": 18.5391902923584, "learning_rate": 1.0219931271477663e-05, "loss": 0.3035, "num_tokens": 645337.0, "step": 1514 }, { "epoch": 0.505, "grad_norm": 15.841348648071289, "learning_rate": 1.0213058419243986e-05, "loss": 0.3384, "num_tokens": 645755.0, "step": 1515 }, { "epoch": 0.5053333333333333, "grad_norm": 23.916933059692383, "learning_rate": 1.0206185567010309e-05, "loss": 0.2935, "num_tokens": 646143.0, "step": 1516 }, { "epoch": 0.5056666666666667, "grad_norm": 9.934290885925293, "learning_rate": 1.0199312714776632e-05, "loss": 0.2149, "num_tokens": 646747.0, "step": 1517 }, { "epoch": 0.506, "grad_norm": 19.640926361083984, "learning_rate": 1.0192439862542955e-05, "loss": 0.4819, "num_tokens": 647193.0, "step": 1518 }, { "epoch": 0.5063333333333333, "grad_norm": 21.60384750366211, "learning_rate": 1.0185567010309278e-05, "loss": 0.3456, "num_tokens": 647459.0, "step": 1519 }, { "epoch": 0.5066666666666667, "grad_norm": 20.51108169555664, "learning_rate": 1.0178694158075601e-05, "loss": 0.3742, "num_tokens": 647789.0, "step": 1520 }, { "epoch": 0.507, "grad_norm": 19.671350479125977, "learning_rate": 1.0171821305841924e-05, "loss": 0.4123, "num_tokens": 648187.0, "step": 1521 }, { "epoch": 0.5073333333333333, "grad_norm": 15.931794166564941, "learning_rate": 1.0164948453608247e-05, "loss": 0.3509, "num_tokens": 648662.0, "step": 1522 }, { "epoch": 0.5076666666666667, "grad_norm": 25.021129608154297, "learning_rate": 1.015807560137457e-05, "loss": 0.6254, "num_tokens": 648982.0, "step": 1523 }, { "epoch": 0.508, "grad_norm": 15.200005531311035, "learning_rate": 1.0151202749140893e-05, "loss": 0.2905, "num_tokens": 649345.0, "step": 1524 }, { "epoch": 0.5083333333333333, "grad_norm": 17.75110626220703, "learning_rate": 1.0144329896907218e-05, "loss": 0.1889, "num_tokens": 649665.0, "step": 1525 }, { "epoch": 0.5086666666666667, "grad_norm": 12.873199462890625, "learning_rate": 1.013745704467354e-05, "loss": 0.2482, "num_tokens": 650230.0, "step": 1526 }, { "epoch": 0.509, "grad_norm": 19.887727737426758, "learning_rate": 1.0130584192439864e-05, "loss": 0.3821, "num_tokens": 650628.0, "step": 1527 }, { "epoch": 0.5093333333333333, "grad_norm": 27.582765579223633, "learning_rate": 1.0123711340206187e-05, "loss": 0.3716, "num_tokens": 651080.0, "step": 1528 }, { "epoch": 0.5096666666666667, "grad_norm": 16.353687286376953, "learning_rate": 1.011683848797251e-05, "loss": 0.3263, "num_tokens": 651516.0, "step": 1529 }, { "epoch": 0.51, "grad_norm": 22.687034606933594, "learning_rate": 1.0109965635738833e-05, "loss": 0.3751, "num_tokens": 651834.0, "step": 1530 }, { "epoch": 0.5103333333333333, "grad_norm": 14.673574447631836, "learning_rate": 1.0103092783505156e-05, "loss": 0.2843, "num_tokens": 652339.0, "step": 1531 }, { "epoch": 0.5106666666666667, "grad_norm": 22.36842918395996, "learning_rate": 1.0096219931271479e-05, "loss": 0.3948, "num_tokens": 652716.0, "step": 1532 }, { "epoch": 0.511, "grad_norm": 11.093718528747559, "learning_rate": 1.0089347079037802e-05, "loss": 0.2186, "num_tokens": 653374.0, "step": 1533 }, { "epoch": 0.5113333333333333, "grad_norm": 16.066030502319336, "learning_rate": 1.0082474226804125e-05, "loss": 0.288, "num_tokens": 653835.0, "step": 1534 }, { "epoch": 0.5116666666666667, "grad_norm": 19.64323616027832, "learning_rate": 1.0075601374570448e-05, "loss": 0.3818, "num_tokens": 654170.0, "step": 1535 }, { "epoch": 0.512, "grad_norm": 21.053571701049805, "learning_rate": 1.006872852233677e-05, "loss": 0.4064, "num_tokens": 654577.0, "step": 1536 }, { "epoch": 0.5123333333333333, "grad_norm": 10.610457420349121, "learning_rate": 1.0061855670103094e-05, "loss": 0.1568, "num_tokens": 655323.0, "step": 1537 }, { "epoch": 0.5126666666666667, "grad_norm": 20.72083854675293, "learning_rate": 1.0054982817869417e-05, "loss": 0.3863, "num_tokens": 655746.0, "step": 1538 }, { "epoch": 0.513, "grad_norm": 22.236610412597656, "learning_rate": 1.004810996563574e-05, "loss": 0.5542, "num_tokens": 656116.0, "step": 1539 }, { "epoch": 0.5133333333333333, "grad_norm": 17.364965438842773, "learning_rate": 1.0041237113402063e-05, "loss": 0.4459, "num_tokens": 656498.0, "step": 1540 }, { "epoch": 0.5136666666666667, "grad_norm": 14.814245223999023, "learning_rate": 1.0034364261168386e-05, "loss": 0.3682, "num_tokens": 657060.0, "step": 1541 }, { "epoch": 0.514, "grad_norm": 16.101940155029297, "learning_rate": 1.0027491408934709e-05, "loss": 0.2832, "num_tokens": 657418.0, "step": 1542 }, { "epoch": 0.5143333333333333, "grad_norm": 21.15138816833496, "learning_rate": 1.0020618556701032e-05, "loss": 0.299, "num_tokens": 657684.0, "step": 1543 }, { "epoch": 0.5146666666666667, "grad_norm": 21.94164276123047, "learning_rate": 1.0013745704467355e-05, "loss": 0.4044, "num_tokens": 658019.0, "step": 1544 }, { "epoch": 0.515, "grad_norm": 23.67759132385254, "learning_rate": 1.0006872852233678e-05, "loss": 0.5004, "num_tokens": 658370.0, "step": 1545 }, { "epoch": 0.5153333333333333, "grad_norm": 19.7232723236084, "learning_rate": 1e-05, "loss": 0.4743, "num_tokens": 658781.0, "step": 1546 }, { "epoch": 0.5156666666666667, "grad_norm": 17.97519302368164, "learning_rate": 9.993127147766324e-06, "loss": 0.3309, "num_tokens": 659280.0, "step": 1547 }, { "epoch": 0.516, "grad_norm": 25.51506805419922, "learning_rate": 9.986254295532647e-06, "loss": 0.3739, "num_tokens": 659509.0, "step": 1548 }, { "epoch": 0.5163333333333333, "grad_norm": 16.600643157958984, "learning_rate": 9.97938144329897e-06, "loss": 0.3106, "num_tokens": 659863.0, "step": 1549 }, { "epoch": 0.5166666666666667, "grad_norm": 29.234445571899414, "learning_rate": 9.972508591065293e-06, "loss": 0.677, "num_tokens": 660193.0, "step": 1550 }, { "epoch": 0.517, "grad_norm": 14.707062721252441, "learning_rate": 9.965635738831616e-06, "loss": 0.286, "num_tokens": 660676.0, "step": 1551 }, { "epoch": 0.5173333333333333, "grad_norm": 16.37903594970703, "learning_rate": 9.958762886597939e-06, "loss": 0.3107, "num_tokens": 660947.0, "step": 1552 }, { "epoch": 0.5176666666666667, "grad_norm": 26.946880340576172, "learning_rate": 9.951890034364262e-06, "loss": 0.7454, "num_tokens": 661273.0, "step": 1553 }, { "epoch": 0.518, "grad_norm": 15.233709335327148, "learning_rate": 9.945017182130585e-06, "loss": 0.2543, "num_tokens": 661612.0, "step": 1554 }, { "epoch": 0.5183333333333333, "grad_norm": 12.581887245178223, "learning_rate": 9.938144329896908e-06, "loss": 0.1816, "num_tokens": 662325.0, "step": 1555 }, { "epoch": 0.5186666666666667, "grad_norm": 18.746492385864258, "learning_rate": 9.931271477663231e-06, "loss": 0.4578, "num_tokens": 662737.0, "step": 1556 }, { "epoch": 0.519, "grad_norm": 10.70036506652832, "learning_rate": 9.924398625429554e-06, "loss": 0.2276, "num_tokens": 663632.0, "step": 1557 }, { "epoch": 0.5193333333333333, "grad_norm": 19.68569564819336, "learning_rate": 9.917525773195877e-06, "loss": 0.3413, "num_tokens": 663912.0, "step": 1558 }, { "epoch": 0.5196666666666667, "grad_norm": 19.507890701293945, "learning_rate": 9.9106529209622e-06, "loss": 0.3244, "num_tokens": 664246.0, "step": 1559 }, { "epoch": 0.52, "grad_norm": 24.359140396118164, "learning_rate": 9.903780068728523e-06, "loss": 0.4032, "num_tokens": 664600.0, "step": 1560 }, { "epoch": 0.5203333333333333, "grad_norm": 27.709598541259766, "learning_rate": 9.896907216494846e-06, "loss": 0.5753, "num_tokens": 664853.0, "step": 1561 }, { "epoch": 0.5206666666666667, "grad_norm": 20.73719024658203, "learning_rate": 9.890034364261169e-06, "loss": 0.3723, "num_tokens": 665141.0, "step": 1562 }, { "epoch": 0.521, "grad_norm": 17.745986938476562, "learning_rate": 9.883161512027492e-06, "loss": 0.2532, "num_tokens": 665429.0, "step": 1563 }, { "epoch": 0.5213333333333333, "grad_norm": 29.164243698120117, "learning_rate": 9.876288659793815e-06, "loss": 0.5712, "num_tokens": 665738.0, "step": 1564 }, { "epoch": 0.5216666666666666, "grad_norm": 41.42264938354492, "learning_rate": 9.869415807560138e-06, "loss": 0.7085, "num_tokens": 665952.0, "step": 1565 }, { "epoch": 0.522, "grad_norm": 9.56140422821045, "learning_rate": 9.862542955326461e-06, "loss": 0.2029, "num_tokens": 666444.0, "step": 1566 }, { "epoch": 0.5223333333333333, "grad_norm": 20.185379028320312, "learning_rate": 9.855670103092784e-06, "loss": 0.3583, "num_tokens": 666730.0, "step": 1567 }, { "epoch": 0.5226666666666666, "grad_norm": 18.204198837280273, "learning_rate": 9.848797250859109e-06, "loss": 0.4819, "num_tokens": 667203.0, "step": 1568 }, { "epoch": 0.523, "grad_norm": 8.269686698913574, "learning_rate": 9.84192439862543e-06, "loss": 0.177, "num_tokens": 667803.0, "step": 1569 }, { "epoch": 0.5233333333333333, "grad_norm": 23.75398826599121, "learning_rate": 9.835051546391753e-06, "loss": 0.4705, "num_tokens": 668132.0, "step": 1570 }, { "epoch": 0.5236666666666666, "grad_norm": 18.435405731201172, "learning_rate": 9.828178694158076e-06, "loss": 0.352, "num_tokens": 668556.0, "step": 1571 }, { "epoch": 0.524, "grad_norm": 17.113040924072266, "learning_rate": 9.821305841924399e-06, "loss": 0.3823, "num_tokens": 669010.0, "step": 1572 }, { "epoch": 0.5243333333333333, "grad_norm": 27.59159278869629, "learning_rate": 9.814432989690722e-06, "loss": 0.503, "num_tokens": 669296.0, "step": 1573 }, { "epoch": 0.5246666666666666, "grad_norm": 23.581480026245117, "learning_rate": 9.807560137457045e-06, "loss": 0.4702, "num_tokens": 669618.0, "step": 1574 }, { "epoch": 0.525, "grad_norm": 25.1276912689209, "learning_rate": 9.800687285223368e-06, "loss": 0.5185, "num_tokens": 670039.0, "step": 1575 }, { "epoch": 0.5253333333333333, "grad_norm": 21.01494026184082, "learning_rate": 9.793814432989691e-06, "loss": 0.4753, "num_tokens": 670456.0, "step": 1576 }, { "epoch": 0.5256666666666666, "grad_norm": 16.019744873046875, "learning_rate": 9.786941580756014e-06, "loss": 0.2613, "num_tokens": 670809.0, "step": 1577 }, { "epoch": 0.526, "grad_norm": 25.749128341674805, "learning_rate": 9.780068728522337e-06, "loss": 0.6335, "num_tokens": 671215.0, "step": 1578 }, { "epoch": 0.5263333333333333, "grad_norm": 46.977378845214844, "learning_rate": 9.77319587628866e-06, "loss": 0.4588, "num_tokens": 671582.0, "step": 1579 }, { "epoch": 0.5266666666666666, "grad_norm": 13.448599815368652, "learning_rate": 9.766323024054983e-06, "loss": 0.2542, "num_tokens": 672214.0, "step": 1580 }, { "epoch": 0.527, "grad_norm": 19.5157470703125, "learning_rate": 9.759450171821306e-06, "loss": 0.3355, "num_tokens": 672559.0, "step": 1581 }, { "epoch": 0.5273333333333333, "grad_norm": 23.745656967163086, "learning_rate": 9.752577319587629e-06, "loss": 0.3956, "num_tokens": 672893.0, "step": 1582 }, { "epoch": 0.5276666666666666, "grad_norm": 18.274394989013672, "learning_rate": 9.745704467353952e-06, "loss": 0.3372, "num_tokens": 673314.0, "step": 1583 }, { "epoch": 0.528, "grad_norm": 12.796242713928223, "learning_rate": 9.738831615120275e-06, "loss": 0.1747, "num_tokens": 673815.0, "step": 1584 }, { "epoch": 0.5283333333333333, "grad_norm": 15.772083282470703, "learning_rate": 9.731958762886598e-06, "loss": 0.2504, "num_tokens": 674297.0, "step": 1585 }, { "epoch": 0.5286666666666666, "grad_norm": 19.01171875, "learning_rate": 9.725085910652921e-06, "loss": 0.3658, "num_tokens": 674629.0, "step": 1586 }, { "epoch": 0.529, "grad_norm": 19.09638786315918, "learning_rate": 9.718213058419244e-06, "loss": 0.4123, "num_tokens": 675029.0, "step": 1587 }, { "epoch": 0.5293333333333333, "grad_norm": 23.994647979736328, "learning_rate": 9.711340206185567e-06, "loss": 0.4005, "num_tokens": 675327.0, "step": 1588 }, { "epoch": 0.5296666666666666, "grad_norm": 21.286924362182617, "learning_rate": 9.70446735395189e-06, "loss": 0.4217, "num_tokens": 675690.0, "step": 1589 }, { "epoch": 0.53, "grad_norm": 22.295419692993164, "learning_rate": 9.697594501718213e-06, "loss": 0.3118, "num_tokens": 676016.0, "step": 1590 }, { "epoch": 0.5303333333333333, "grad_norm": 18.834169387817383, "learning_rate": 9.690721649484536e-06, "loss": 0.2939, "num_tokens": 676419.0, "step": 1591 }, { "epoch": 0.5306666666666666, "grad_norm": 28.07942008972168, "learning_rate": 9.68384879725086e-06, "loss": 0.4754, "num_tokens": 676733.0, "step": 1592 }, { "epoch": 0.531, "grad_norm": 16.98412322998047, "learning_rate": 9.676975945017182e-06, "loss": 0.2882, "num_tokens": 677125.0, "step": 1593 }, { "epoch": 0.5313333333333333, "grad_norm": 19.250747680664062, "learning_rate": 9.670103092783505e-06, "loss": 0.2781, "num_tokens": 677520.0, "step": 1594 }, { "epoch": 0.5316666666666666, "grad_norm": 18.370962142944336, "learning_rate": 9.663230240549828e-06, "loss": 0.2219, "num_tokens": 677851.0, "step": 1595 }, { "epoch": 0.532, "grad_norm": 21.897186279296875, "learning_rate": 9.656357388316153e-06, "loss": 0.3514, "num_tokens": 678216.0, "step": 1596 }, { "epoch": 0.5323333333333333, "grad_norm": 16.098369598388672, "learning_rate": 9.649484536082476e-06, "loss": 0.3766, "num_tokens": 678711.0, "step": 1597 }, { "epoch": 0.5326666666666666, "grad_norm": 22.929248809814453, "learning_rate": 9.642611683848799e-06, "loss": 0.5304, "num_tokens": 679092.0, "step": 1598 }, { "epoch": 0.533, "grad_norm": 13.872879981994629, "learning_rate": 9.635738831615122e-06, "loss": 0.2746, "num_tokens": 679552.0, "step": 1599 }, { "epoch": 0.5333333333333333, "grad_norm": 24.93256950378418, "learning_rate": 9.628865979381445e-06, "loss": 0.4706, "num_tokens": 679889.0, "step": 1600 }, { "epoch": 0.5336666666666666, "grad_norm": 13.687588691711426, "learning_rate": 9.621993127147768e-06, "loss": 0.3421, "num_tokens": 680532.0, "step": 1601 }, { "epoch": 0.534, "grad_norm": 15.730263710021973, "learning_rate": 9.615120274914091e-06, "loss": 0.3495, "num_tokens": 681119.0, "step": 1602 }, { "epoch": 0.5343333333333333, "grad_norm": 15.17314338684082, "learning_rate": 9.608247422680414e-06, "loss": 0.3892, "num_tokens": 681618.0, "step": 1603 }, { "epoch": 0.5346666666666666, "grad_norm": 13.51383113861084, "learning_rate": 9.601374570446737e-06, "loss": 0.2332, "num_tokens": 682012.0, "step": 1604 }, { "epoch": 0.535, "grad_norm": 16.636388778686523, "learning_rate": 9.59450171821306e-06, "loss": 0.2986, "num_tokens": 682412.0, "step": 1605 }, { "epoch": 0.5353333333333333, "grad_norm": 18.632387161254883, "learning_rate": 9.587628865979383e-06, "loss": 0.3224, "num_tokens": 682683.0, "step": 1606 }, { "epoch": 0.5356666666666666, "grad_norm": 19.360885620117188, "learning_rate": 9.580756013745706e-06, "loss": 0.3744, "num_tokens": 683148.0, "step": 1607 }, { "epoch": 0.536, "grad_norm": 26.078887939453125, "learning_rate": 9.573883161512029e-06, "loss": 0.4911, "num_tokens": 683456.0, "step": 1608 }, { "epoch": 0.5363333333333333, "grad_norm": 31.11709213256836, "learning_rate": 9.567010309278352e-06, "loss": 0.7197, "num_tokens": 683781.0, "step": 1609 }, { "epoch": 0.5366666666666666, "grad_norm": 35.99385452270508, "learning_rate": 9.560137457044675e-06, "loss": 0.6012, "num_tokens": 684047.0, "step": 1610 }, { "epoch": 0.537, "grad_norm": 14.344094276428223, "learning_rate": 9.553264604810998e-06, "loss": 0.2481, "num_tokens": 684565.0, "step": 1611 }, { "epoch": 0.5373333333333333, "grad_norm": 18.168466567993164, "learning_rate": 9.546391752577321e-06, "loss": 0.3048, "num_tokens": 684953.0, "step": 1612 }, { "epoch": 0.5376666666666666, "grad_norm": 23.66522789001465, "learning_rate": 9.539518900343644e-06, "loss": 0.5078, "num_tokens": 685292.0, "step": 1613 }, { "epoch": 0.538, "grad_norm": 17.17974281311035, "learning_rate": 9.532646048109967e-06, "loss": 0.2727, "num_tokens": 685647.0, "step": 1614 }, { "epoch": 0.5383333333333333, "grad_norm": 12.468040466308594, "learning_rate": 9.525773195876288e-06, "loss": 0.2271, "num_tokens": 686086.0, "step": 1615 }, { "epoch": 0.5386666666666666, "grad_norm": 18.81756019592285, "learning_rate": 9.518900343642611e-06, "loss": 0.3244, "num_tokens": 686543.0, "step": 1616 }, { "epoch": 0.539, "grad_norm": 24.554067611694336, "learning_rate": 9.512027491408934e-06, "loss": 0.5434, "num_tokens": 686908.0, "step": 1617 }, { "epoch": 0.5393333333333333, "grad_norm": 14.40299129486084, "learning_rate": 9.505154639175257e-06, "loss": 0.2854, "num_tokens": 687342.0, "step": 1618 }, { "epoch": 0.5396666666666666, "grad_norm": 15.726556777954102, "learning_rate": 9.49828178694158e-06, "loss": 0.2281, "num_tokens": 687718.0, "step": 1619 }, { "epoch": 0.54, "grad_norm": 15.500628471374512, "learning_rate": 9.491408934707903e-06, "loss": 0.4311, "num_tokens": 688241.0, "step": 1620 }, { "epoch": 0.5403333333333333, "grad_norm": 15.936690330505371, "learning_rate": 9.484536082474226e-06, "loss": 0.35, "num_tokens": 688785.0, "step": 1621 }, { "epoch": 0.5406666666666666, "grad_norm": 15.648868560791016, "learning_rate": 9.47766323024055e-06, "loss": 0.3291, "num_tokens": 689303.0, "step": 1622 }, { "epoch": 0.541, "grad_norm": 18.343040466308594, "learning_rate": 9.470790378006872e-06, "loss": 0.4135, "num_tokens": 689776.0, "step": 1623 }, { "epoch": 0.5413333333333333, "grad_norm": 18.3728084564209, "learning_rate": 9.463917525773197e-06, "loss": 0.4072, "num_tokens": 690110.0, "step": 1624 }, { "epoch": 0.5416666666666666, "grad_norm": 15.797283172607422, "learning_rate": 9.45704467353952e-06, "loss": 0.3833, "num_tokens": 690632.0, "step": 1625 }, { "epoch": 0.542, "grad_norm": 13.621990203857422, "learning_rate": 9.450171821305843e-06, "loss": 0.2517, "num_tokens": 691129.0, "step": 1626 }, { "epoch": 0.5423333333333333, "grad_norm": 12.643838882446289, "learning_rate": 9.443298969072166e-06, "loss": 0.2645, "num_tokens": 691697.0, "step": 1627 }, { "epoch": 0.5426666666666666, "grad_norm": 15.254887580871582, "learning_rate": 9.43642611683849e-06, "loss": 0.2353, "num_tokens": 692159.0, "step": 1628 }, { "epoch": 0.543, "grad_norm": 17.00467300415039, "learning_rate": 9.429553264604812e-06, "loss": 0.3186, "num_tokens": 692585.0, "step": 1629 }, { "epoch": 0.5433333333333333, "grad_norm": 24.26474380493164, "learning_rate": 9.422680412371135e-06, "loss": 0.3163, "num_tokens": 692827.0, "step": 1630 }, { "epoch": 0.5436666666666666, "grad_norm": 18.04642677307129, "learning_rate": 9.415807560137458e-06, "loss": 0.2741, "num_tokens": 693304.0, "step": 1631 }, { "epoch": 0.544, "grad_norm": 17.497257232666016, "learning_rate": 9.408934707903781e-06, "loss": 0.3967, "num_tokens": 693791.0, "step": 1632 }, { "epoch": 0.5443333333333333, "grad_norm": 20.930309295654297, "learning_rate": 9.402061855670104e-06, "loss": 0.3946, "num_tokens": 694145.0, "step": 1633 }, { "epoch": 0.5446666666666666, "grad_norm": 14.233626365661621, "learning_rate": 9.395189003436427e-06, "loss": 0.2694, "num_tokens": 694659.0, "step": 1634 }, { "epoch": 0.545, "grad_norm": 20.011308670043945, "learning_rate": 9.38831615120275e-06, "loss": 0.3333, "num_tokens": 694988.0, "step": 1635 }, { "epoch": 0.5453333333333333, "grad_norm": 22.643875122070312, "learning_rate": 9.381443298969073e-06, "loss": 0.3818, "num_tokens": 695246.0, "step": 1636 }, { "epoch": 0.5456666666666666, "grad_norm": 22.17720603942871, "learning_rate": 9.374570446735396e-06, "loss": 0.3655, "num_tokens": 695561.0, "step": 1637 }, { "epoch": 0.546, "grad_norm": 11.026832580566406, "learning_rate": 9.36769759450172e-06, "loss": 0.2075, "num_tokens": 696416.0, "step": 1638 }, { "epoch": 0.5463333333333333, "grad_norm": 16.765884399414062, "learning_rate": 9.360824742268042e-06, "loss": 0.3035, "num_tokens": 696868.0, "step": 1639 }, { "epoch": 0.5466666666666666, "grad_norm": 19.190893173217773, "learning_rate": 9.353951890034365e-06, "loss": 0.5167, "num_tokens": 697382.0, "step": 1640 }, { "epoch": 0.547, "grad_norm": 19.595775604248047, "learning_rate": 9.347079037800688e-06, "loss": 0.4328, "num_tokens": 697782.0, "step": 1641 }, { "epoch": 0.5473333333333333, "grad_norm": 14.254444122314453, "learning_rate": 9.340206185567011e-06, "loss": 0.2693, "num_tokens": 698329.0, "step": 1642 }, { "epoch": 0.5476666666666666, "grad_norm": 37.99089813232422, "learning_rate": 9.333333333333334e-06, "loss": 0.5356, "num_tokens": 698704.0, "step": 1643 }, { "epoch": 0.548, "grad_norm": 21.96015167236328, "learning_rate": 9.326460481099657e-06, "loss": 0.4424, "num_tokens": 699090.0, "step": 1644 }, { "epoch": 0.5483333333333333, "grad_norm": 18.134693145751953, "learning_rate": 9.31958762886598e-06, "loss": 0.3149, "num_tokens": 699466.0, "step": 1645 }, { "epoch": 0.5486666666666666, "grad_norm": 17.168249130249023, "learning_rate": 9.312714776632303e-06, "loss": 0.2951, "num_tokens": 699817.0, "step": 1646 }, { "epoch": 0.549, "grad_norm": 22.79177474975586, "learning_rate": 9.305841924398626e-06, "loss": 0.4639, "num_tokens": 700334.0, "step": 1647 }, { "epoch": 0.5493333333333333, "grad_norm": 22.64977264404297, "learning_rate": 9.29896907216495e-06, "loss": 0.4875, "num_tokens": 700640.0, "step": 1648 }, { "epoch": 0.5496666666666666, "grad_norm": 16.322446823120117, "learning_rate": 9.292096219931272e-06, "loss": 0.2933, "num_tokens": 701058.0, "step": 1649 }, { "epoch": 0.55, "grad_norm": 24.061233520507812, "learning_rate": 9.285223367697595e-06, "loss": 0.4232, "num_tokens": 701486.0, "step": 1650 }, { "epoch": 0.5503333333333333, "grad_norm": 21.64773178100586, "learning_rate": 9.278350515463918e-06, "loss": 0.3328, "num_tokens": 701794.0, "step": 1651 }, { "epoch": 0.5506666666666666, "grad_norm": 14.785501480102539, "learning_rate": 9.271477663230241e-06, "loss": 0.23, "num_tokens": 702278.0, "step": 1652 }, { "epoch": 0.551, "grad_norm": 18.932937622070312, "learning_rate": 9.264604810996564e-06, "loss": 0.294, "num_tokens": 702689.0, "step": 1653 }, { "epoch": 0.5513333333333333, "grad_norm": 15.065712928771973, "learning_rate": 9.257731958762887e-06, "loss": 0.2738, "num_tokens": 703298.0, "step": 1654 }, { "epoch": 0.5516666666666666, "grad_norm": 10.354486465454102, "learning_rate": 9.25085910652921e-06, "loss": 0.1955, "num_tokens": 703891.0, "step": 1655 }, { "epoch": 0.552, "grad_norm": 16.136192321777344, "learning_rate": 9.243986254295533e-06, "loss": 0.3097, "num_tokens": 704462.0, "step": 1656 }, { "epoch": 0.5523333333333333, "grad_norm": 21.952558517456055, "learning_rate": 9.237113402061856e-06, "loss": 0.4169, "num_tokens": 704776.0, "step": 1657 }, { "epoch": 0.5526666666666666, "grad_norm": 10.150717735290527, "learning_rate": 9.23024054982818e-06, "loss": 0.2078, "num_tokens": 705532.0, "step": 1658 }, { "epoch": 0.553, "grad_norm": 18.291757583618164, "learning_rate": 9.223367697594502e-06, "loss": 0.3642, "num_tokens": 705834.0, "step": 1659 }, { "epoch": 0.5533333333333333, "grad_norm": 24.28529167175293, "learning_rate": 9.216494845360825e-06, "loss": 0.3624, "num_tokens": 706084.0, "step": 1660 }, { "epoch": 0.5536666666666666, "grad_norm": 17.309457778930664, "learning_rate": 9.209621993127148e-06, "loss": 0.3885, "num_tokens": 706548.0, "step": 1661 }, { "epoch": 0.554, "grad_norm": 14.954508781433105, "learning_rate": 9.202749140893471e-06, "loss": 0.3455, "num_tokens": 706959.0, "step": 1662 }, { "epoch": 0.5543333333333333, "grad_norm": 12.801079750061035, "learning_rate": 9.195876288659794e-06, "loss": 0.1886, "num_tokens": 707804.0, "step": 1663 }, { "epoch": 0.5546666666666666, "grad_norm": 18.444002151489258, "learning_rate": 9.189003436426117e-06, "loss": 0.4335, "num_tokens": 708237.0, "step": 1664 }, { "epoch": 0.555, "grad_norm": 17.730010986328125, "learning_rate": 9.18213058419244e-06, "loss": 0.2949, "num_tokens": 708635.0, "step": 1665 }, { "epoch": 0.5553333333333333, "grad_norm": 11.369793891906738, "learning_rate": 9.175257731958764e-06, "loss": 0.2068, "num_tokens": 709157.0, "step": 1666 }, { "epoch": 0.5556666666666666, "grad_norm": 20.490964889526367, "learning_rate": 9.168384879725087e-06, "loss": 0.4054, "num_tokens": 709510.0, "step": 1667 }, { "epoch": 0.556, "grad_norm": 25.795202255249023, "learning_rate": 9.16151202749141e-06, "loss": 0.3631, "num_tokens": 709767.0, "step": 1668 }, { "epoch": 0.5563333333333333, "grad_norm": 10.47407054901123, "learning_rate": 9.154639175257733e-06, "loss": 0.2248, "num_tokens": 710502.0, "step": 1669 }, { "epoch": 0.5566666666666666, "grad_norm": 20.259159088134766, "learning_rate": 9.147766323024056e-06, "loss": 0.4135, "num_tokens": 710859.0, "step": 1670 }, { "epoch": 0.557, "grad_norm": 20.48171615600586, "learning_rate": 9.140893470790379e-06, "loss": 0.4533, "num_tokens": 711280.0, "step": 1671 }, { "epoch": 0.5573333333333333, "grad_norm": 24.816612243652344, "learning_rate": 9.134020618556702e-06, "loss": 0.5282, "num_tokens": 711685.0, "step": 1672 }, { "epoch": 0.5576666666666666, "grad_norm": 11.141294479370117, "learning_rate": 9.127147766323025e-06, "loss": 0.1841, "num_tokens": 712185.0, "step": 1673 }, { "epoch": 0.558, "grad_norm": 13.96796989440918, "learning_rate": 9.120274914089348e-06, "loss": 0.339, "num_tokens": 712700.0, "step": 1674 }, { "epoch": 0.5583333333333333, "grad_norm": 19.04978370666504, "learning_rate": 9.11340206185567e-06, "loss": 0.3529, "num_tokens": 713055.0, "step": 1675 }, { "epoch": 0.5586666666666666, "grad_norm": 15.499602317810059, "learning_rate": 9.106529209621994e-06, "loss": 0.2818, "num_tokens": 713547.0, "step": 1676 }, { "epoch": 0.559, "grad_norm": 13.616783142089844, "learning_rate": 9.099656357388317e-06, "loss": 0.2947, "num_tokens": 714120.0, "step": 1677 }, { "epoch": 0.5593333333333333, "grad_norm": 19.004880905151367, "learning_rate": 9.09278350515464e-06, "loss": 0.3078, "num_tokens": 714422.0, "step": 1678 }, { "epoch": 0.5596666666666666, "grad_norm": 31.50261878967285, "learning_rate": 9.085910652920963e-06, "loss": 0.279, "num_tokens": 714848.0, "step": 1679 }, { "epoch": 0.56, "grad_norm": 25.381851196289062, "learning_rate": 9.079037800687286e-06, "loss": 0.4611, "num_tokens": 715087.0, "step": 1680 }, { "epoch": 0.5603333333333333, "grad_norm": 27.051803588867188, "learning_rate": 9.072164948453609e-06, "loss": 0.584, "num_tokens": 715363.0, "step": 1681 }, { "epoch": 0.5606666666666666, "grad_norm": 15.09622573852539, "learning_rate": 9.065292096219932e-06, "loss": 0.2636, "num_tokens": 715842.0, "step": 1682 }, { "epoch": 0.561, "grad_norm": 21.924968719482422, "learning_rate": 9.058419243986255e-06, "loss": 0.3884, "num_tokens": 716231.0, "step": 1683 }, { "epoch": 0.5613333333333334, "grad_norm": 19.427446365356445, "learning_rate": 9.051546391752578e-06, "loss": 0.3538, "num_tokens": 716628.0, "step": 1684 }, { "epoch": 0.5616666666666666, "grad_norm": 17.159500122070312, "learning_rate": 9.0446735395189e-06, "loss": 0.3009, "num_tokens": 717083.0, "step": 1685 }, { "epoch": 0.562, "grad_norm": 18.53658676147461, "learning_rate": 9.037800687285224e-06, "loss": 0.2974, "num_tokens": 717627.0, "step": 1686 }, { "epoch": 0.5623333333333334, "grad_norm": 39.6973762512207, "learning_rate": 9.030927835051547e-06, "loss": 0.6, "num_tokens": 717812.0, "step": 1687 }, { "epoch": 0.5626666666666666, "grad_norm": 15.432571411132812, "learning_rate": 9.02405498281787e-06, "loss": 0.2888, "num_tokens": 718303.0, "step": 1688 }, { "epoch": 0.563, "grad_norm": 18.9945068359375, "learning_rate": 9.017182130584193e-06, "loss": 0.3805, "num_tokens": 718694.0, "step": 1689 }, { "epoch": 0.5633333333333334, "grad_norm": 23.124374389648438, "learning_rate": 9.010309278350516e-06, "loss": 0.5007, "num_tokens": 719013.0, "step": 1690 }, { "epoch": 0.5636666666666666, "grad_norm": 14.777887344360352, "learning_rate": 9.003436426116839e-06, "loss": 0.2652, "num_tokens": 719522.0, "step": 1691 }, { "epoch": 0.564, "grad_norm": 14.204819679260254, "learning_rate": 8.996563573883162e-06, "loss": 0.222, "num_tokens": 719953.0, "step": 1692 }, { "epoch": 0.5643333333333334, "grad_norm": 17.202373504638672, "learning_rate": 8.989690721649485e-06, "loss": 0.3187, "num_tokens": 720351.0, "step": 1693 }, { "epoch": 0.5646666666666667, "grad_norm": 17.98405647277832, "learning_rate": 8.982817869415808e-06, "loss": 0.3784, "num_tokens": 720895.0, "step": 1694 }, { "epoch": 0.565, "grad_norm": 28.74911117553711, "learning_rate": 8.975945017182132e-06, "loss": 0.5596, "num_tokens": 721164.0, "step": 1695 }, { "epoch": 0.5653333333333334, "grad_norm": 13.313467025756836, "learning_rate": 8.969072164948455e-06, "loss": 0.1746, "num_tokens": 721479.0, "step": 1696 }, { "epoch": 0.5656666666666667, "grad_norm": 16.989959716796875, "learning_rate": 8.962199312714778e-06, "loss": 0.3184, "num_tokens": 721956.0, "step": 1697 }, { "epoch": 0.566, "grad_norm": 16.558982849121094, "learning_rate": 8.955326460481101e-06, "loss": 0.2933, "num_tokens": 722364.0, "step": 1698 }, { "epoch": 0.5663333333333334, "grad_norm": 23.209171295166016, "learning_rate": 8.948453608247424e-06, "loss": 0.399, "num_tokens": 722606.0, "step": 1699 }, { "epoch": 0.5666666666666667, "grad_norm": 24.557601928710938, "learning_rate": 8.941580756013747e-06, "loss": 0.3903, "num_tokens": 722869.0, "step": 1700 }, { "epoch": 0.567, "grad_norm": 17.400808334350586, "learning_rate": 8.93470790378007e-06, "loss": 0.2762, "num_tokens": 723190.0, "step": 1701 }, { "epoch": 0.5673333333333334, "grad_norm": 14.550352096557617, "learning_rate": 8.927835051546394e-06, "loss": 0.2593, "num_tokens": 723750.0, "step": 1702 }, { "epoch": 0.5676666666666667, "grad_norm": 13.119606971740723, "learning_rate": 8.920962199312717e-06, "loss": 0.2288, "num_tokens": 724275.0, "step": 1703 }, { "epoch": 0.568, "grad_norm": 35.911338806152344, "learning_rate": 8.91408934707904e-06, "loss": 0.453, "num_tokens": 724586.0, "step": 1704 }, { "epoch": 0.5683333333333334, "grad_norm": 17.832868576049805, "learning_rate": 8.907216494845363e-06, "loss": 0.3741, "num_tokens": 725025.0, "step": 1705 }, { "epoch": 0.5686666666666667, "grad_norm": 12.683430671691895, "learning_rate": 8.900343642611684e-06, "loss": 0.2764, "num_tokens": 725537.0, "step": 1706 }, { "epoch": 0.569, "grad_norm": 27.21957015991211, "learning_rate": 8.893470790378007e-06, "loss": 0.3016, "num_tokens": 725869.0, "step": 1707 }, { "epoch": 0.5693333333333334, "grad_norm": 17.432079315185547, "learning_rate": 8.88659793814433e-06, "loss": 0.3075, "num_tokens": 726250.0, "step": 1708 }, { "epoch": 0.5696666666666667, "grad_norm": 21.740825653076172, "learning_rate": 8.879725085910653e-06, "loss": 0.3108, "num_tokens": 726729.0, "step": 1709 }, { "epoch": 0.57, "grad_norm": 14.526434898376465, "learning_rate": 8.872852233676976e-06, "loss": 0.3697, "num_tokens": 727136.0, "step": 1710 }, { "epoch": 0.5703333333333334, "grad_norm": 11.737061500549316, "learning_rate": 8.865979381443299e-06, "loss": 0.228, "num_tokens": 727668.0, "step": 1711 }, { "epoch": 0.5706666666666667, "grad_norm": 14.325531959533691, "learning_rate": 8.859106529209622e-06, "loss": 0.2357, "num_tokens": 728038.0, "step": 1712 }, { "epoch": 0.571, "grad_norm": 17.168746948242188, "learning_rate": 8.852233676975945e-06, "loss": 0.2696, "num_tokens": 728455.0, "step": 1713 }, { "epoch": 0.5713333333333334, "grad_norm": 15.798415184020996, "learning_rate": 8.845360824742268e-06, "loss": 0.3325, "num_tokens": 728862.0, "step": 1714 }, { "epoch": 0.5716666666666667, "grad_norm": 15.269011497497559, "learning_rate": 8.838487972508591e-06, "loss": 0.3282, "num_tokens": 729512.0, "step": 1715 }, { "epoch": 0.572, "grad_norm": 16.42952537536621, "learning_rate": 8.831615120274914e-06, "loss": 0.3829, "num_tokens": 729984.0, "step": 1716 }, { "epoch": 0.5723333333333334, "grad_norm": 8.836243629455566, "learning_rate": 8.824742268041237e-06, "loss": 0.1567, "num_tokens": 730420.0, "step": 1717 }, { "epoch": 0.5726666666666667, "grad_norm": 28.38826560974121, "learning_rate": 8.81786941580756e-06, "loss": 0.3831, "num_tokens": 730655.0, "step": 1718 }, { "epoch": 0.573, "grad_norm": 23.424415588378906, "learning_rate": 8.810996563573883e-06, "loss": 0.4666, "num_tokens": 730961.0, "step": 1719 }, { "epoch": 0.5733333333333334, "grad_norm": 19.968393325805664, "learning_rate": 8.804123711340206e-06, "loss": 0.3474, "num_tokens": 731415.0, "step": 1720 }, { "epoch": 0.5736666666666667, "grad_norm": 18.723146438598633, "learning_rate": 8.797250859106529e-06, "loss": 0.4803, "num_tokens": 731982.0, "step": 1721 }, { "epoch": 0.574, "grad_norm": 17.946979522705078, "learning_rate": 8.790378006872852e-06, "loss": 0.311, "num_tokens": 732276.0, "step": 1722 }, { "epoch": 0.5743333333333334, "grad_norm": 22.2428035736084, "learning_rate": 8.783505154639177e-06, "loss": 0.3867, "num_tokens": 732685.0, "step": 1723 }, { "epoch": 0.5746666666666667, "grad_norm": 13.960770606994629, "learning_rate": 8.7766323024055e-06, "loss": 0.2763, "num_tokens": 733165.0, "step": 1724 }, { "epoch": 0.575, "grad_norm": 16.63258934020996, "learning_rate": 8.769759450171823e-06, "loss": 0.2411, "num_tokens": 733697.0, "step": 1725 }, { "epoch": 0.5753333333333334, "grad_norm": 16.75143051147461, "learning_rate": 8.762886597938146e-06, "loss": 0.2938, "num_tokens": 734012.0, "step": 1726 }, { "epoch": 0.5756666666666667, "grad_norm": 11.530450820922852, "learning_rate": 8.756013745704469e-06, "loss": 0.2177, "num_tokens": 734587.0, "step": 1727 }, { "epoch": 0.576, "grad_norm": 15.166725158691406, "learning_rate": 8.749140893470792e-06, "loss": 0.2951, "num_tokens": 735027.0, "step": 1728 }, { "epoch": 0.5763333333333334, "grad_norm": 36.3653450012207, "learning_rate": 8.742268041237115e-06, "loss": 0.488, "num_tokens": 735363.0, "step": 1729 }, { "epoch": 0.5766666666666667, "grad_norm": 11.9863862991333, "learning_rate": 8.735395189003438e-06, "loss": 0.1871, "num_tokens": 735878.0, "step": 1730 }, { "epoch": 0.577, "grad_norm": 15.36286449432373, "learning_rate": 8.72852233676976e-06, "loss": 0.2226, "num_tokens": 736311.0, "step": 1731 }, { "epoch": 0.5773333333333334, "grad_norm": 11.510364532470703, "learning_rate": 8.721649484536084e-06, "loss": 0.1674, "num_tokens": 736814.0, "step": 1732 }, { "epoch": 0.5776666666666667, "grad_norm": 14.891397476196289, "learning_rate": 8.714776632302407e-06, "loss": 0.2914, "num_tokens": 737361.0, "step": 1733 }, { "epoch": 0.578, "grad_norm": 23.638525009155273, "learning_rate": 8.70790378006873e-06, "loss": 0.4346, "num_tokens": 737706.0, "step": 1734 }, { "epoch": 0.5783333333333334, "grad_norm": 21.3564453125, "learning_rate": 8.701030927835053e-06, "loss": 0.3786, "num_tokens": 738100.0, "step": 1735 }, { "epoch": 0.5786666666666667, "grad_norm": 22.08631706237793, "learning_rate": 8.694158075601376e-06, "loss": 0.3778, "num_tokens": 738486.0, "step": 1736 }, { "epoch": 0.579, "grad_norm": 13.20022201538086, "learning_rate": 8.687285223367699e-06, "loss": 0.2305, "num_tokens": 739024.0, "step": 1737 }, { "epoch": 0.5793333333333334, "grad_norm": 25.37921142578125, "learning_rate": 8.680412371134022e-06, "loss": 0.4896, "num_tokens": 739304.0, "step": 1738 }, { "epoch": 0.5796666666666667, "grad_norm": 23.528518676757812, "learning_rate": 8.673539518900345e-06, "loss": 0.4038, "num_tokens": 739641.0, "step": 1739 }, { "epoch": 0.58, "grad_norm": 18.078397750854492, "learning_rate": 8.666666666666668e-06, "loss": 0.3046, "num_tokens": 740065.0, "step": 1740 }, { "epoch": 0.5803333333333334, "grad_norm": 9.670743942260742, "learning_rate": 8.65979381443299e-06, "loss": 0.1857, "num_tokens": 740653.0, "step": 1741 }, { "epoch": 0.5806666666666667, "grad_norm": 14.760104179382324, "learning_rate": 8.652920962199314e-06, "loss": 0.2859, "num_tokens": 741221.0, "step": 1742 }, { "epoch": 0.581, "grad_norm": 11.234084129333496, "learning_rate": 8.646048109965637e-06, "loss": 0.197, "num_tokens": 741801.0, "step": 1743 }, { "epoch": 0.5813333333333334, "grad_norm": 18.496219635009766, "learning_rate": 8.63917525773196e-06, "loss": 0.3958, "num_tokens": 742257.0, "step": 1744 }, { "epoch": 0.5816666666666667, "grad_norm": 11.379688262939453, "learning_rate": 8.632302405498283e-06, "loss": 0.2076, "num_tokens": 742749.0, "step": 1745 }, { "epoch": 0.582, "grad_norm": 21.252229690551758, "learning_rate": 8.625429553264606e-06, "loss": 0.3881, "num_tokens": 743139.0, "step": 1746 }, { "epoch": 0.5823333333333334, "grad_norm": 16.405994415283203, "learning_rate": 8.618556701030929e-06, "loss": 0.3192, "num_tokens": 743548.0, "step": 1747 }, { "epoch": 0.5826666666666667, "grad_norm": 16.866121292114258, "learning_rate": 8.611683848797252e-06, "loss": 0.2606, "num_tokens": 744053.0, "step": 1748 }, { "epoch": 0.583, "grad_norm": 12.936274528503418, "learning_rate": 8.604810996563575e-06, "loss": 0.1892, "num_tokens": 744546.0, "step": 1749 }, { "epoch": 0.5833333333333334, "grad_norm": 11.928746223449707, "learning_rate": 8.597938144329898e-06, "loss": 0.2278, "num_tokens": 745167.0, "step": 1750 }, { "epoch": 0.5836666666666667, "grad_norm": 34.03020095825195, "learning_rate": 8.591065292096221e-06, "loss": 0.5446, "num_tokens": 745398.0, "step": 1751 }, { "epoch": 0.584, "grad_norm": 18.491029739379883, "learning_rate": 8.584192439862544e-06, "loss": 0.323, "num_tokens": 745761.0, "step": 1752 }, { "epoch": 0.5843333333333334, "grad_norm": 12.660356521606445, "learning_rate": 8.577319587628867e-06, "loss": 0.2177, "num_tokens": 746264.0, "step": 1753 }, { "epoch": 0.5846666666666667, "grad_norm": 14.597548484802246, "learning_rate": 8.57044673539519e-06, "loss": 0.3198, "num_tokens": 746924.0, "step": 1754 }, { "epoch": 0.585, "grad_norm": 36.669029235839844, "learning_rate": 8.563573883161513e-06, "loss": 0.6966, "num_tokens": 747183.0, "step": 1755 }, { "epoch": 0.5853333333333334, "grad_norm": 22.19483757019043, "learning_rate": 8.556701030927836e-06, "loss": 0.3424, "num_tokens": 747484.0, "step": 1756 }, { "epoch": 0.5856666666666667, "grad_norm": 12.607491493225098, "learning_rate": 8.549828178694159e-06, "loss": 0.2227, "num_tokens": 748317.0, "step": 1757 }, { "epoch": 0.586, "grad_norm": 10.176495552062988, "learning_rate": 8.542955326460482e-06, "loss": 0.2051, "num_tokens": 748889.0, "step": 1758 }, { "epoch": 0.5863333333333334, "grad_norm": 27.83660316467285, "learning_rate": 8.536082474226805e-06, "loss": 0.4141, "num_tokens": 749145.0, "step": 1759 }, { "epoch": 0.5866666666666667, "grad_norm": 26.99822998046875, "learning_rate": 8.529209621993128e-06, "loss": 0.4368, "num_tokens": 749441.0, "step": 1760 }, { "epoch": 0.587, "grad_norm": 21.6968936920166, "learning_rate": 8.522336769759451e-06, "loss": 0.4092, "num_tokens": 749736.0, "step": 1761 }, { "epoch": 0.5873333333333334, "grad_norm": 15.740528106689453, "learning_rate": 8.515463917525774e-06, "loss": 0.3331, "num_tokens": 750198.0, "step": 1762 }, { "epoch": 0.5876666666666667, "grad_norm": 18.930313110351562, "learning_rate": 8.508591065292097e-06, "loss": 0.2615, "num_tokens": 750587.0, "step": 1763 }, { "epoch": 0.588, "grad_norm": 11.96757984161377, "learning_rate": 8.50171821305842e-06, "loss": 0.1865, "num_tokens": 751066.0, "step": 1764 }, { "epoch": 0.5883333333333334, "grad_norm": 21.416547775268555, "learning_rate": 8.494845360824743e-06, "loss": 0.2441, "num_tokens": 751360.0, "step": 1765 }, { "epoch": 0.5886666666666667, "grad_norm": 14.33950138092041, "learning_rate": 8.487972508591066e-06, "loss": 0.2401, "num_tokens": 751908.0, "step": 1766 }, { "epoch": 0.589, "grad_norm": 26.184648513793945, "learning_rate": 8.481099656357389e-06, "loss": 0.3474, "num_tokens": 752227.0, "step": 1767 }, { "epoch": 0.5893333333333334, "grad_norm": 24.832761764526367, "learning_rate": 8.474226804123712e-06, "loss": 0.5163, "num_tokens": 752750.0, "step": 1768 }, { "epoch": 0.5896666666666667, "grad_norm": 9.603775978088379, "learning_rate": 8.467353951890035e-06, "loss": 0.1238, "num_tokens": 753335.0, "step": 1769 }, { "epoch": 0.59, "grad_norm": 17.44608497619629, "learning_rate": 8.460481099656358e-06, "loss": 0.3116, "num_tokens": 753690.0, "step": 1770 }, { "epoch": 0.5903333333333334, "grad_norm": 39.9282112121582, "learning_rate": 8.453608247422681e-06, "loss": 0.6628, "num_tokens": 753878.0, "step": 1771 }, { "epoch": 0.5906666666666667, "grad_norm": 25.318140029907227, "learning_rate": 8.446735395189004e-06, "loss": 0.3546, "num_tokens": 754122.0, "step": 1772 }, { "epoch": 0.591, "grad_norm": 10.376173973083496, "learning_rate": 8.439862542955327e-06, "loss": 0.1858, "num_tokens": 754862.0, "step": 1773 }, { "epoch": 0.5913333333333334, "grad_norm": 35.452613830566406, "learning_rate": 8.43298969072165e-06, "loss": 0.6529, "num_tokens": 755236.0, "step": 1774 }, { "epoch": 0.5916666666666667, "grad_norm": 28.880781173706055, "learning_rate": 8.426116838487973e-06, "loss": 0.2201, "num_tokens": 755684.0, "step": 1775 }, { "epoch": 0.592, "grad_norm": 22.881328582763672, "learning_rate": 8.419243986254296e-06, "loss": 0.3643, "num_tokens": 755946.0, "step": 1776 }, { "epoch": 0.5923333333333334, "grad_norm": 20.013978958129883, "learning_rate": 8.412371134020619e-06, "loss": 0.3261, "num_tokens": 756310.0, "step": 1777 }, { "epoch": 0.5926666666666667, "grad_norm": 22.35851287841797, "learning_rate": 8.405498281786942e-06, "loss": 0.4078, "num_tokens": 756623.0, "step": 1778 }, { "epoch": 0.593, "grad_norm": 18.210826873779297, "learning_rate": 8.398625429553265e-06, "loss": 0.3596, "num_tokens": 757126.0, "step": 1779 }, { "epoch": 0.5933333333333334, "grad_norm": 30.06055450439453, "learning_rate": 8.391752577319588e-06, "loss": 0.4662, "num_tokens": 757407.0, "step": 1780 }, { "epoch": 0.5936666666666667, "grad_norm": 11.35013198852539, "learning_rate": 8.384879725085911e-06, "loss": 0.1621, "num_tokens": 757936.0, "step": 1781 }, { "epoch": 0.594, "grad_norm": 9.999135971069336, "learning_rate": 8.378006872852234e-06, "loss": 0.196, "num_tokens": 758578.0, "step": 1782 }, { "epoch": 0.5943333333333334, "grad_norm": 18.529132843017578, "learning_rate": 8.371134020618557e-06, "loss": 0.2666, "num_tokens": 759153.0, "step": 1783 }, { "epoch": 0.5946666666666667, "grad_norm": 13.94863224029541, "learning_rate": 8.36426116838488e-06, "loss": 0.245, "num_tokens": 759641.0, "step": 1784 }, { "epoch": 0.595, "grad_norm": 19.4188289642334, "learning_rate": 8.357388316151203e-06, "loss": 0.3773, "num_tokens": 760074.0, "step": 1785 }, { "epoch": 0.5953333333333334, "grad_norm": 25.787099838256836, "learning_rate": 8.350515463917526e-06, "loss": 0.4123, "num_tokens": 760375.0, "step": 1786 }, { "epoch": 0.5956666666666667, "grad_norm": 26.591358184814453, "learning_rate": 8.34364261168385e-06, "loss": 0.4773, "num_tokens": 760675.0, "step": 1787 }, { "epoch": 0.596, "grad_norm": 16.520952224731445, "learning_rate": 8.336769759450172e-06, "loss": 0.3672, "num_tokens": 761222.0, "step": 1788 }, { "epoch": 0.5963333333333334, "grad_norm": 14.701739311218262, "learning_rate": 8.329896907216495e-06, "loss": 0.2501, "num_tokens": 761690.0, "step": 1789 }, { "epoch": 0.5966666666666667, "grad_norm": 23.379108428955078, "learning_rate": 8.323024054982818e-06, "loss": 0.3477, "num_tokens": 762056.0, "step": 1790 }, { "epoch": 0.597, "grad_norm": 26.72650718688965, "learning_rate": 8.316151202749141e-06, "loss": 0.5213, "num_tokens": 762351.0, "step": 1791 }, { "epoch": 0.5973333333333334, "grad_norm": 16.014869689941406, "learning_rate": 8.309278350515464e-06, "loss": 0.2356, "num_tokens": 762602.0, "step": 1792 }, { "epoch": 0.5976666666666667, "grad_norm": 28.606155395507812, "learning_rate": 8.302405498281787e-06, "loss": 0.5147, "num_tokens": 762946.0, "step": 1793 }, { "epoch": 0.598, "grad_norm": 18.29939842224121, "learning_rate": 8.295532646048112e-06, "loss": 0.2937, "num_tokens": 763281.0, "step": 1794 }, { "epoch": 0.5983333333333334, "grad_norm": 24.319995880126953, "learning_rate": 8.288659793814435e-06, "loss": 0.3943, "num_tokens": 763620.0, "step": 1795 }, { "epoch": 0.5986666666666667, "grad_norm": 18.942588806152344, "learning_rate": 8.281786941580758e-06, "loss": 0.2575, "num_tokens": 763964.0, "step": 1796 }, { "epoch": 0.599, "grad_norm": 15.756611824035645, "learning_rate": 8.27491408934708e-06, "loss": 0.2614, "num_tokens": 764464.0, "step": 1797 }, { "epoch": 0.5993333333333334, "grad_norm": 9.836176872253418, "learning_rate": 8.268041237113402e-06, "loss": 0.2192, "num_tokens": 765112.0, "step": 1798 }, { "epoch": 0.5996666666666667, "grad_norm": 27.26851463317871, "learning_rate": 8.261168384879725e-06, "loss": 0.3839, "num_tokens": 765338.0, "step": 1799 }, { "epoch": 0.6, "grad_norm": 15.869701385498047, "learning_rate": 8.254295532646048e-06, "loss": 0.2343, "num_tokens": 765855.0, "step": 1800 }, { "epoch": 0.6003333333333334, "grad_norm": 30.591880798339844, "learning_rate": 8.247422680412371e-06, "loss": 0.7302, "num_tokens": 766180.0, "step": 1801 }, { "epoch": 0.6006666666666667, "grad_norm": 20.991741180419922, "learning_rate": 8.240549828178694e-06, "loss": 0.4408, "num_tokens": 766540.0, "step": 1802 }, { "epoch": 0.601, "grad_norm": 21.937761306762695, "learning_rate": 8.233676975945017e-06, "loss": 0.3285, "num_tokens": 766890.0, "step": 1803 }, { "epoch": 0.6013333333333334, "grad_norm": 18.13292121887207, "learning_rate": 8.22680412371134e-06, "loss": 0.3415, "num_tokens": 767481.0, "step": 1804 }, { "epoch": 0.6016666666666667, "grad_norm": 23.073810577392578, "learning_rate": 8.219931271477663e-06, "loss": 0.3923, "num_tokens": 767816.0, "step": 1805 }, { "epoch": 0.602, "grad_norm": 17.74311065673828, "learning_rate": 8.213058419243986e-06, "loss": 0.3153, "num_tokens": 768232.0, "step": 1806 }, { "epoch": 0.6023333333333334, "grad_norm": 11.865968704223633, "learning_rate": 8.20618556701031e-06, "loss": 0.1839, "num_tokens": 768819.0, "step": 1807 }, { "epoch": 0.6026666666666667, "grad_norm": 37.22713851928711, "learning_rate": 8.199312714776632e-06, "loss": 0.8611, "num_tokens": 769039.0, "step": 1808 }, { "epoch": 0.603, "grad_norm": 23.31795883178711, "learning_rate": 8.192439862542955e-06, "loss": 0.6619, "num_tokens": 769565.0, "step": 1809 }, { "epoch": 0.6033333333333334, "grad_norm": 16.37868881225586, "learning_rate": 8.185567010309278e-06, "loss": 0.2699, "num_tokens": 769901.0, "step": 1810 }, { "epoch": 0.6036666666666667, "grad_norm": 28.098962783813477, "learning_rate": 8.178694158075601e-06, "loss": 0.3893, "num_tokens": 770147.0, "step": 1811 }, { "epoch": 0.604, "grad_norm": 14.605302810668945, "learning_rate": 8.171821305841924e-06, "loss": 0.3162, "num_tokens": 770601.0, "step": 1812 }, { "epoch": 0.6043333333333333, "grad_norm": 18.524009704589844, "learning_rate": 8.164948453608247e-06, "loss": 0.3129, "num_tokens": 771011.0, "step": 1813 }, { "epoch": 0.6046666666666667, "grad_norm": 26.423446655273438, "learning_rate": 8.15807560137457e-06, "loss": 0.5007, "num_tokens": 771321.0, "step": 1814 }, { "epoch": 0.605, "grad_norm": 32.675479888916016, "learning_rate": 8.151202749140893e-06, "loss": 0.6993, "num_tokens": 771626.0, "step": 1815 }, { "epoch": 0.6053333333333333, "grad_norm": 46.72008514404297, "learning_rate": 8.144329896907216e-06, "loss": 0.3754, "num_tokens": 772337.0, "step": 1816 }, { "epoch": 0.6056666666666667, "grad_norm": 17.84502410888672, "learning_rate": 8.13745704467354e-06, "loss": 0.2745, "num_tokens": 772822.0, "step": 1817 }, { "epoch": 0.606, "grad_norm": 25.973567962646484, "learning_rate": 8.130584192439862e-06, "loss": 0.553, "num_tokens": 773285.0, "step": 1818 }, { "epoch": 0.6063333333333333, "grad_norm": 11.724309921264648, "learning_rate": 8.123711340206185e-06, "loss": 0.182, "num_tokens": 773914.0, "step": 1819 }, { "epoch": 0.6066666666666667, "grad_norm": 17.918731689453125, "learning_rate": 8.116838487972508e-06, "loss": 0.2408, "num_tokens": 774416.0, "step": 1820 }, { "epoch": 0.607, "grad_norm": 13.288811683654785, "learning_rate": 8.109965635738832e-06, "loss": 0.214, "num_tokens": 775002.0, "step": 1821 }, { "epoch": 0.6073333333333333, "grad_norm": 33.69429016113281, "learning_rate": 8.103092783505156e-06, "loss": 0.3968, "num_tokens": 775269.0, "step": 1822 }, { "epoch": 0.6076666666666667, "grad_norm": 11.178689002990723, "learning_rate": 8.09621993127148e-06, "loss": 0.1969, "num_tokens": 775851.0, "step": 1823 }, { "epoch": 0.608, "grad_norm": 15.141257286071777, "learning_rate": 8.089347079037802e-06, "loss": 0.2534, "num_tokens": 776395.0, "step": 1824 }, { "epoch": 0.6083333333333333, "grad_norm": 26.977317810058594, "learning_rate": 8.082474226804125e-06, "loss": 0.4766, "num_tokens": 776643.0, "step": 1825 }, { "epoch": 0.6086666666666667, "grad_norm": 30.21482276916504, "learning_rate": 8.075601374570448e-06, "loss": 0.508, "num_tokens": 776922.0, "step": 1826 }, { "epoch": 0.609, "grad_norm": 15.321044921875, "learning_rate": 8.068728522336771e-06, "loss": 0.2535, "num_tokens": 777285.0, "step": 1827 }, { "epoch": 0.6093333333333333, "grad_norm": 11.9266939163208, "learning_rate": 8.061855670103094e-06, "loss": 0.1915, "num_tokens": 777859.0, "step": 1828 }, { "epoch": 0.6096666666666667, "grad_norm": 18.798877716064453, "learning_rate": 8.054982817869417e-06, "loss": 0.3458, "num_tokens": 778199.0, "step": 1829 }, { "epoch": 0.61, "grad_norm": 20.603717803955078, "learning_rate": 8.04810996563574e-06, "loss": 0.3939, "num_tokens": 778582.0, "step": 1830 }, { "epoch": 0.6103333333333333, "grad_norm": 13.857816696166992, "learning_rate": 8.041237113402063e-06, "loss": 0.2118, "num_tokens": 779242.0, "step": 1831 }, { "epoch": 0.6106666666666667, "grad_norm": 27.260683059692383, "learning_rate": 8.034364261168386e-06, "loss": 0.6443, "num_tokens": 779581.0, "step": 1832 }, { "epoch": 0.611, "grad_norm": 24.47563362121582, "learning_rate": 8.02749140893471e-06, "loss": 0.4028, "num_tokens": 779899.0, "step": 1833 }, { "epoch": 0.6113333333333333, "grad_norm": 24.275604248046875, "learning_rate": 8.020618556701032e-06, "loss": 0.5727, "num_tokens": 780303.0, "step": 1834 }, { "epoch": 0.6116666666666667, "grad_norm": 20.57573699951172, "learning_rate": 8.013745704467355e-06, "loss": 0.4149, "num_tokens": 780719.0, "step": 1835 }, { "epoch": 0.612, "grad_norm": 17.564504623413086, "learning_rate": 8.006872852233678e-06, "loss": 0.2836, "num_tokens": 781048.0, "step": 1836 }, { "epoch": 0.6123333333333333, "grad_norm": 35.3397331237793, "learning_rate": 8.000000000000001e-06, "loss": 0.7237, "num_tokens": 781267.0, "step": 1837 }, { "epoch": 0.6126666666666667, "grad_norm": 16.486146926879883, "learning_rate": 7.993127147766324e-06, "loss": 0.3682, "num_tokens": 781779.0, "step": 1838 }, { "epoch": 0.613, "grad_norm": 14.18731689453125, "learning_rate": 7.986254295532647e-06, "loss": 0.2817, "num_tokens": 782266.0, "step": 1839 }, { "epoch": 0.6133333333333333, "grad_norm": 20.166276931762695, "learning_rate": 7.97938144329897e-06, "loss": 0.3665, "num_tokens": 782573.0, "step": 1840 }, { "epoch": 0.6136666666666667, "grad_norm": 15.344813346862793, "learning_rate": 7.972508591065293e-06, "loss": 0.2382, "num_tokens": 782956.0, "step": 1841 }, { "epoch": 0.614, "grad_norm": 61.01182174682617, "learning_rate": 7.965635738831615e-06, "loss": 0.4128, "num_tokens": 783136.0, "step": 1842 }, { "epoch": 0.6143333333333333, "grad_norm": 21.190387725830078, "learning_rate": 7.958762886597938e-06, "loss": 0.3567, "num_tokens": 783470.0, "step": 1843 }, { "epoch": 0.6146666666666667, "grad_norm": 13.298663139343262, "learning_rate": 7.95189003436426e-06, "loss": 0.2894, "num_tokens": 784015.0, "step": 1844 }, { "epoch": 0.615, "grad_norm": 13.619166374206543, "learning_rate": 7.945017182130584e-06, "loss": 0.2169, "num_tokens": 784569.0, "step": 1845 }, { "epoch": 0.6153333333333333, "grad_norm": 16.854785919189453, "learning_rate": 7.938144329896907e-06, "loss": 0.2807, "num_tokens": 785075.0, "step": 1846 }, { "epoch": 0.6156666666666667, "grad_norm": 17.36841583251953, "learning_rate": 7.93127147766323e-06, "loss": 0.3791, "num_tokens": 785608.0, "step": 1847 }, { "epoch": 0.616, "grad_norm": 24.3577938079834, "learning_rate": 7.924398625429553e-06, "loss": 0.4215, "num_tokens": 785944.0, "step": 1848 }, { "epoch": 0.6163333333333333, "grad_norm": 14.034148216247559, "learning_rate": 7.917525773195876e-06, "loss": 0.2453, "num_tokens": 786655.0, "step": 1849 }, { "epoch": 0.6166666666666667, "grad_norm": 13.8680419921875, "learning_rate": 7.9106529209622e-06, "loss": 0.2202, "num_tokens": 787240.0, "step": 1850 }, { "epoch": 0.617, "grad_norm": 22.971668243408203, "learning_rate": 7.903780068728523e-06, "loss": 0.3323, "num_tokens": 787500.0, "step": 1851 }, { "epoch": 0.6173333333333333, "grad_norm": 14.97249698638916, "learning_rate": 7.896907216494846e-06, "loss": 0.3257, "num_tokens": 788388.0, "step": 1852 }, { "epoch": 0.6176666666666667, "grad_norm": 22.688201904296875, "learning_rate": 7.89003436426117e-06, "loss": 0.3805, "num_tokens": 788703.0, "step": 1853 }, { "epoch": 0.618, "grad_norm": 15.832986831665039, "learning_rate": 7.883161512027492e-06, "loss": 0.258, "num_tokens": 789125.0, "step": 1854 }, { "epoch": 0.6183333333333333, "grad_norm": 22.518632888793945, "learning_rate": 7.876288659793815e-06, "loss": 0.4484, "num_tokens": 789473.0, "step": 1855 }, { "epoch": 0.6186666666666667, "grad_norm": 24.793983459472656, "learning_rate": 7.869415807560138e-06, "loss": 0.5261, "num_tokens": 789735.0, "step": 1856 }, { "epoch": 0.619, "grad_norm": 18.08690643310547, "learning_rate": 7.862542955326461e-06, "loss": 0.3774, "num_tokens": 790182.0, "step": 1857 }, { "epoch": 0.6193333333333333, "grad_norm": 29.731544494628906, "learning_rate": 7.855670103092785e-06, "loss": 0.4441, "num_tokens": 790418.0, "step": 1858 }, { "epoch": 0.6196666666666667, "grad_norm": 25.538707733154297, "learning_rate": 7.848797250859108e-06, "loss": 0.6489, "num_tokens": 790795.0, "step": 1859 }, { "epoch": 0.62, "grad_norm": 23.88118553161621, "learning_rate": 7.84192439862543e-06, "loss": 0.3684, "num_tokens": 791121.0, "step": 1860 }, { "epoch": 0.6203333333333333, "grad_norm": 17.308650970458984, "learning_rate": 7.835051546391754e-06, "loss": 0.2403, "num_tokens": 791535.0, "step": 1861 }, { "epoch": 0.6206666666666667, "grad_norm": 21.711984634399414, "learning_rate": 7.828178694158077e-06, "loss": 0.4811, "num_tokens": 791953.0, "step": 1862 }, { "epoch": 0.621, "grad_norm": 22.250234603881836, "learning_rate": 7.8213058419244e-06, "loss": 0.3621, "num_tokens": 792283.0, "step": 1863 }, { "epoch": 0.6213333333333333, "grad_norm": 18.488740921020508, "learning_rate": 7.814432989690723e-06, "loss": 0.3067, "num_tokens": 792636.0, "step": 1864 }, { "epoch": 0.6216666666666667, "grad_norm": 12.286611557006836, "learning_rate": 7.807560137457046e-06, "loss": 0.226, "num_tokens": 793238.0, "step": 1865 }, { "epoch": 0.622, "grad_norm": 14.164098739624023, "learning_rate": 7.800687285223369e-06, "loss": 0.2243, "num_tokens": 793694.0, "step": 1866 }, { "epoch": 0.6223333333333333, "grad_norm": 15.927416801452637, "learning_rate": 7.793814432989692e-06, "loss": 0.2974, "num_tokens": 794179.0, "step": 1867 }, { "epoch": 0.6226666666666667, "grad_norm": 46.68614196777344, "learning_rate": 7.786941580756015e-06, "loss": 0.8049, "num_tokens": 794490.0, "step": 1868 }, { "epoch": 0.623, "grad_norm": 24.23274803161621, "learning_rate": 7.780068728522338e-06, "loss": 0.5525, "num_tokens": 794935.0, "step": 1869 }, { "epoch": 0.6233333333333333, "grad_norm": 19.57903480529785, "learning_rate": 7.77319587628866e-06, "loss": 0.3657, "num_tokens": 795391.0, "step": 1870 }, { "epoch": 0.6236666666666667, "grad_norm": 15.148832321166992, "learning_rate": 7.766323024054984e-06, "loss": 0.1962, "num_tokens": 795723.0, "step": 1871 }, { "epoch": 0.624, "grad_norm": 15.81313419342041, "learning_rate": 7.759450171821307e-06, "loss": 0.2695, "num_tokens": 796334.0, "step": 1872 }, { "epoch": 0.6243333333333333, "grad_norm": 23.006521224975586, "learning_rate": 7.75257731958763e-06, "loss": 0.4626, "num_tokens": 796651.0, "step": 1873 }, { "epoch": 0.6246666666666667, "grad_norm": 19.068567276000977, "learning_rate": 7.745704467353953e-06, "loss": 0.364, "num_tokens": 797019.0, "step": 1874 }, { "epoch": 0.625, "grad_norm": 19.392623901367188, "learning_rate": 7.738831615120276e-06, "loss": 0.2924, "num_tokens": 797394.0, "step": 1875 }, { "epoch": 0.6253333333333333, "grad_norm": 19.122060775756836, "learning_rate": 7.731958762886599e-06, "loss": 0.379, "num_tokens": 797750.0, "step": 1876 }, { "epoch": 0.6256666666666667, "grad_norm": 12.287111282348633, "learning_rate": 7.725085910652922e-06, "loss": 0.2043, "num_tokens": 798221.0, "step": 1877 }, { "epoch": 0.626, "grad_norm": 18.902414321899414, "learning_rate": 7.718213058419245e-06, "loss": 0.3158, "num_tokens": 798655.0, "step": 1878 }, { "epoch": 0.6263333333333333, "grad_norm": 14.329907417297363, "learning_rate": 7.711340206185568e-06, "loss": 0.2311, "num_tokens": 799210.0, "step": 1879 }, { "epoch": 0.6266666666666667, "grad_norm": 16.953937530517578, "learning_rate": 7.70446735395189e-06, "loss": 0.3066, "num_tokens": 799680.0, "step": 1880 }, { "epoch": 0.627, "grad_norm": 18.5789852142334, "learning_rate": 7.697594501718214e-06, "loss": 0.379, "num_tokens": 800266.0, "step": 1881 }, { "epoch": 0.6273333333333333, "grad_norm": 23.489595413208008, "learning_rate": 7.690721649484537e-06, "loss": 0.5263, "num_tokens": 800662.0, "step": 1882 }, { "epoch": 0.6276666666666667, "grad_norm": 9.519865036010742, "learning_rate": 7.68384879725086e-06, "loss": 0.1948, "num_tokens": 801119.0, "step": 1883 }, { "epoch": 0.628, "grad_norm": 22.843402862548828, "learning_rate": 7.676975945017183e-06, "loss": 0.4858, "num_tokens": 801522.0, "step": 1884 }, { "epoch": 0.6283333333333333, "grad_norm": 24.043846130371094, "learning_rate": 7.670103092783506e-06, "loss": 0.4282, "num_tokens": 801802.0, "step": 1885 }, { "epoch": 0.6286666666666667, "grad_norm": 16.539491653442383, "learning_rate": 7.663230240549829e-06, "loss": 0.2417, "num_tokens": 802324.0, "step": 1886 }, { "epoch": 0.629, "grad_norm": 22.74696922302246, "learning_rate": 7.656357388316152e-06, "loss": 0.4732, "num_tokens": 802729.0, "step": 1887 }, { "epoch": 0.6293333333333333, "grad_norm": 20.944854736328125, "learning_rate": 7.649484536082475e-06, "loss": 0.3912, "num_tokens": 803051.0, "step": 1888 }, { "epoch": 0.6296666666666667, "grad_norm": 25.731611251831055, "learning_rate": 7.642611683848798e-06, "loss": 0.4385, "num_tokens": 803345.0, "step": 1889 }, { "epoch": 0.63, "grad_norm": 34.75891876220703, "learning_rate": 7.63573883161512e-06, "loss": 0.3758, "num_tokens": 803549.0, "step": 1890 }, { "epoch": 0.6303333333333333, "grad_norm": 23.320693969726562, "learning_rate": 7.628865979381444e-06, "loss": 0.4496, "num_tokens": 803919.0, "step": 1891 }, { "epoch": 0.6306666666666667, "grad_norm": 25.975088119506836, "learning_rate": 7.621993127147767e-06, "loss": 0.441, "num_tokens": 804219.0, "step": 1892 }, { "epoch": 0.631, "grad_norm": 22.66525650024414, "learning_rate": 7.61512027491409e-06, "loss": 0.3997, "num_tokens": 804506.0, "step": 1893 }, { "epoch": 0.6313333333333333, "grad_norm": 22.98565673828125, "learning_rate": 7.608247422680413e-06, "loss": 0.3588, "num_tokens": 804774.0, "step": 1894 }, { "epoch": 0.6316666666666667, "grad_norm": 14.806015014648438, "learning_rate": 7.601374570446736e-06, "loss": 0.319, "num_tokens": 805515.0, "step": 1895 }, { "epoch": 0.632, "grad_norm": 23.207359313964844, "learning_rate": 7.594501718213059e-06, "loss": 0.3317, "num_tokens": 805918.0, "step": 1896 }, { "epoch": 0.6323333333333333, "grad_norm": 21.48774528503418, "learning_rate": 7.587628865979382e-06, "loss": 0.5248, "num_tokens": 806331.0, "step": 1897 }, { "epoch": 0.6326666666666667, "grad_norm": 13.724984169006348, "learning_rate": 7.580756013745705e-06, "loss": 0.2189, "num_tokens": 806956.0, "step": 1898 }, { "epoch": 0.633, "grad_norm": 21.658960342407227, "learning_rate": 7.573883161512028e-06, "loss": 0.3948, "num_tokens": 807324.0, "step": 1899 }, { "epoch": 0.6333333333333333, "grad_norm": 20.947242736816406, "learning_rate": 7.567010309278351e-06, "loss": 0.3455, "num_tokens": 807732.0, "step": 1900 }, { "epoch": 0.6336666666666667, "grad_norm": 16.616384506225586, "learning_rate": 7.560137457044674e-06, "loss": 0.3732, "num_tokens": 808179.0, "step": 1901 }, { "epoch": 0.634, "grad_norm": 26.282764434814453, "learning_rate": 7.553264604810997e-06, "loss": 0.4484, "num_tokens": 808441.0, "step": 1902 }, { "epoch": 0.6343333333333333, "grad_norm": 20.564437866210938, "learning_rate": 7.54639175257732e-06, "loss": 0.3739, "num_tokens": 808731.0, "step": 1903 }, { "epoch": 0.6346666666666667, "grad_norm": 41.74526596069336, "learning_rate": 7.539518900343643e-06, "loss": 0.881, "num_tokens": 808925.0, "step": 1904 }, { "epoch": 0.635, "grad_norm": 18.21511459350586, "learning_rate": 7.532646048109966e-06, "loss": 0.4254, "num_tokens": 809247.0, "step": 1905 }, { "epoch": 0.6353333333333333, "grad_norm": 21.883041381835938, "learning_rate": 7.525773195876289e-06, "loss": 0.3893, "num_tokens": 809636.0, "step": 1906 }, { "epoch": 0.6356666666666667, "grad_norm": 21.73333168029785, "learning_rate": 7.518900343642612e-06, "loss": 0.4477, "num_tokens": 810118.0, "step": 1907 }, { "epoch": 0.636, "grad_norm": 30.78097915649414, "learning_rate": 7.512027491408935e-06, "loss": 0.5111, "num_tokens": 810297.0, "step": 1908 }, { "epoch": 0.6363333333333333, "grad_norm": 12.828937530517578, "learning_rate": 7.505154639175258e-06, "loss": 0.1922, "num_tokens": 810878.0, "step": 1909 }, { "epoch": 0.6366666666666667, "grad_norm": 17.590091705322266, "learning_rate": 7.498281786941582e-06, "loss": 0.2909, "num_tokens": 811246.0, "step": 1910 }, { "epoch": 0.637, "grad_norm": 12.709762573242188, "learning_rate": 7.491408934707905e-06, "loss": 0.3065, "num_tokens": 812007.0, "step": 1911 }, { "epoch": 0.6373333333333333, "grad_norm": 14.294734954833984, "learning_rate": 7.484536082474228e-06, "loss": 0.2017, "num_tokens": 812593.0, "step": 1912 }, { "epoch": 0.6376666666666667, "grad_norm": 14.042871475219727, "learning_rate": 7.477663230240551e-06, "loss": 0.2249, "num_tokens": 813058.0, "step": 1913 }, { "epoch": 0.638, "grad_norm": 39.903846740722656, "learning_rate": 7.470790378006874e-06, "loss": 0.8942, "num_tokens": 813273.0, "step": 1914 }, { "epoch": 0.6383333333333333, "grad_norm": 14.889566421508789, "learning_rate": 7.463917525773197e-06, "loss": 0.3063, "num_tokens": 813898.0, "step": 1915 }, { "epoch": 0.6386666666666667, "grad_norm": 20.421457290649414, "learning_rate": 7.45704467353952e-06, "loss": 0.3473, "num_tokens": 814195.0, "step": 1916 }, { "epoch": 0.639, "grad_norm": 13.744288444519043, "learning_rate": 7.450171821305843e-06, "loss": 0.2665, "num_tokens": 814713.0, "step": 1917 }, { "epoch": 0.6393333333333333, "grad_norm": 20.14866828918457, "learning_rate": 7.443298969072166e-06, "loss": 0.3041, "num_tokens": 815224.0, "step": 1918 }, { "epoch": 0.6396666666666667, "grad_norm": 33.050994873046875, "learning_rate": 7.436426116838489e-06, "loss": 0.5507, "num_tokens": 815551.0, "step": 1919 }, { "epoch": 0.64, "grad_norm": 33.12289810180664, "learning_rate": 7.429553264604812e-06, "loss": 0.3116, "num_tokens": 816134.0, "step": 1920 }, { "epoch": 0.6403333333333333, "grad_norm": 16.846210479736328, "learning_rate": 7.422680412371135e-06, "loss": 0.2677, "num_tokens": 816607.0, "step": 1921 }, { "epoch": 0.6406666666666667, "grad_norm": 22.930171966552734, "learning_rate": 7.415807560137458e-06, "loss": 0.3909, "num_tokens": 817004.0, "step": 1922 }, { "epoch": 0.641, "grad_norm": 17.60596466064453, "learning_rate": 7.408934707903781e-06, "loss": 0.3289, "num_tokens": 817462.0, "step": 1923 }, { "epoch": 0.6413333333333333, "grad_norm": 10.805072784423828, "learning_rate": 7.402061855670104e-06, "loss": 0.1737, "num_tokens": 818032.0, "step": 1924 }, { "epoch": 0.6416666666666667, "grad_norm": 34.131500244140625, "learning_rate": 7.395189003436427e-06, "loss": 0.281, "num_tokens": 818466.0, "step": 1925 }, { "epoch": 0.642, "grad_norm": 25.375690460205078, "learning_rate": 7.38831615120275e-06, "loss": 0.5408, "num_tokens": 818794.0, "step": 1926 }, { "epoch": 0.6423333333333333, "grad_norm": 15.993664741516113, "learning_rate": 7.381443298969073e-06, "loss": 0.283, "num_tokens": 819247.0, "step": 1927 }, { "epoch": 0.6426666666666667, "grad_norm": 15.466114044189453, "learning_rate": 7.374570446735396e-06, "loss": 0.2525, "num_tokens": 819701.0, "step": 1928 }, { "epoch": 0.643, "grad_norm": 13.904009819030762, "learning_rate": 7.367697594501719e-06, "loss": 0.2371, "num_tokens": 820411.0, "step": 1929 }, { "epoch": 0.6433333333333333, "grad_norm": 22.92576789855957, "learning_rate": 7.360824742268042e-06, "loss": 0.4427, "num_tokens": 820714.0, "step": 1930 }, { "epoch": 0.6436666666666667, "grad_norm": 16.17699432373047, "learning_rate": 7.353951890034365e-06, "loss": 0.291, "num_tokens": 821180.0, "step": 1931 }, { "epoch": 0.644, "grad_norm": 38.164005279541016, "learning_rate": 7.347079037800689e-06, "loss": 0.6922, "num_tokens": 821398.0, "step": 1932 }, { "epoch": 0.6443333333333333, "grad_norm": 20.315563201904297, "learning_rate": 7.34020618556701e-06, "loss": 0.3409, "num_tokens": 821772.0, "step": 1933 }, { "epoch": 0.6446666666666667, "grad_norm": 12.437118530273438, "learning_rate": 7.333333333333333e-06, "loss": 0.1996, "num_tokens": 822312.0, "step": 1934 }, { "epoch": 0.645, "grad_norm": 24.710678100585938, "learning_rate": 7.326460481099656e-06, "loss": 0.3847, "num_tokens": 822647.0, "step": 1935 }, { "epoch": 0.6453333333333333, "grad_norm": 23.050804138183594, "learning_rate": 7.319587628865979e-06, "loss": 0.5128, "num_tokens": 823044.0, "step": 1936 }, { "epoch": 0.6456666666666667, "grad_norm": 31.660789489746094, "learning_rate": 7.312714776632302e-06, "loss": 0.6937, "num_tokens": 823352.0, "step": 1937 }, { "epoch": 0.646, "grad_norm": 24.326953887939453, "learning_rate": 7.305841924398626e-06, "loss": 0.5003, "num_tokens": 823720.0, "step": 1938 }, { "epoch": 0.6463333333333333, "grad_norm": 27.709575653076172, "learning_rate": 7.298969072164949e-06, "loss": 0.6063, "num_tokens": 824074.0, "step": 1939 }, { "epoch": 0.6466666666666666, "grad_norm": 14.640046119689941, "learning_rate": 7.292096219931272e-06, "loss": 0.2632, "num_tokens": 824557.0, "step": 1940 }, { "epoch": 0.647, "grad_norm": 20.93095588684082, "learning_rate": 7.285223367697595e-06, "loss": 0.3899, "num_tokens": 824874.0, "step": 1941 }, { "epoch": 0.6473333333333333, "grad_norm": 26.700727462768555, "learning_rate": 7.278350515463918e-06, "loss": 0.5205, "num_tokens": 825227.0, "step": 1942 }, { "epoch": 0.6476666666666666, "grad_norm": 32.94010925292969, "learning_rate": 7.271477663230241e-06, "loss": 0.4258, "num_tokens": 825598.0, "step": 1943 }, { "epoch": 0.648, "grad_norm": 28.245838165283203, "learning_rate": 7.264604810996564e-06, "loss": 0.5315, "num_tokens": 825896.0, "step": 1944 }, { "epoch": 0.6483333333333333, "grad_norm": 19.932357788085938, "learning_rate": 7.257731958762887e-06, "loss": 0.3769, "num_tokens": 826288.0, "step": 1945 }, { "epoch": 0.6486666666666666, "grad_norm": 15.732309341430664, "learning_rate": 7.25085910652921e-06, "loss": 0.2686, "num_tokens": 826753.0, "step": 1946 }, { "epoch": 0.649, "grad_norm": 17.81649398803711, "learning_rate": 7.243986254295533e-06, "loss": 0.2628, "num_tokens": 827261.0, "step": 1947 }, { "epoch": 0.6493333333333333, "grad_norm": 21.075510025024414, "learning_rate": 7.237113402061856e-06, "loss": 0.4067, "num_tokens": 827614.0, "step": 1948 }, { "epoch": 0.6496666666666666, "grad_norm": 25.062219619750977, "learning_rate": 7.230240549828179e-06, "loss": 0.4374, "num_tokens": 827960.0, "step": 1949 }, { "epoch": 0.65, "grad_norm": 13.872211456298828, "learning_rate": 7.223367697594502e-06, "loss": 0.2351, "num_tokens": 828420.0, "step": 1950 }, { "epoch": 0.6503333333333333, "grad_norm": 15.07292366027832, "learning_rate": 7.216494845360825e-06, "loss": 0.3455, "num_tokens": 828944.0, "step": 1951 }, { "epoch": 0.6506666666666666, "grad_norm": 21.062026977539062, "learning_rate": 7.209621993127148e-06, "loss": 0.3339, "num_tokens": 829266.0, "step": 1952 }, { "epoch": 0.651, "grad_norm": 19.857337951660156, "learning_rate": 7.202749140893471e-06, "loss": 0.459, "num_tokens": 829714.0, "step": 1953 }, { "epoch": 0.6513333333333333, "grad_norm": 21.77639389038086, "learning_rate": 7.195876288659794e-06, "loss": 0.3529, "num_tokens": 830040.0, "step": 1954 }, { "epoch": 0.6516666666666666, "grad_norm": 19.095420837402344, "learning_rate": 7.189003436426117e-06, "loss": 0.4236, "num_tokens": 830519.0, "step": 1955 }, { "epoch": 0.652, "grad_norm": 11.046838760375977, "learning_rate": 7.18213058419244e-06, "loss": 0.2092, "num_tokens": 831300.0, "step": 1956 }, { "epoch": 0.6523333333333333, "grad_norm": 28.26678466796875, "learning_rate": 7.175257731958763e-06, "loss": 0.4407, "num_tokens": 831528.0, "step": 1957 }, { "epoch": 0.6526666666666666, "grad_norm": 31.830270767211914, "learning_rate": 7.168384879725086e-06, "loss": 0.3289, "num_tokens": 831799.0, "step": 1958 }, { "epoch": 0.653, "grad_norm": 17.841081619262695, "learning_rate": 7.161512027491409e-06, "loss": 0.318, "num_tokens": 832176.0, "step": 1959 }, { "epoch": 0.6533333333333333, "grad_norm": 28.601594924926758, "learning_rate": 7.154639175257733e-06, "loss": 0.4275, "num_tokens": 832511.0, "step": 1960 }, { "epoch": 0.6536666666666666, "grad_norm": 14.647648811340332, "learning_rate": 7.147766323024056e-06, "loss": 0.2922, "num_tokens": 833074.0, "step": 1961 }, { "epoch": 0.654, "grad_norm": 16.9051570892334, "learning_rate": 7.140893470790379e-06, "loss": 0.2314, "num_tokens": 833470.0, "step": 1962 }, { "epoch": 0.6543333333333333, "grad_norm": 13.66362476348877, "learning_rate": 7.134020618556702e-06, "loss": 0.2941, "num_tokens": 834326.0, "step": 1963 }, { "epoch": 0.6546666666666666, "grad_norm": 17.67928123474121, "learning_rate": 7.127147766323025e-06, "loss": 0.2984, "num_tokens": 834763.0, "step": 1964 }, { "epoch": 0.655, "grad_norm": 31.64408302307129, "learning_rate": 7.120274914089348e-06, "loss": 0.6362, "num_tokens": 834997.0, "step": 1965 }, { "epoch": 0.6553333333333333, "grad_norm": 33.637813568115234, "learning_rate": 7.113402061855671e-06, "loss": 0.5638, "num_tokens": 835232.0, "step": 1966 }, { "epoch": 0.6556666666666666, "grad_norm": 26.402835845947266, "learning_rate": 7.106529209621994e-06, "loss": 0.5356, "num_tokens": 835500.0, "step": 1967 }, { "epoch": 0.656, "grad_norm": 15.629569053649902, "learning_rate": 7.099656357388317e-06, "loss": 0.2943, "num_tokens": 835994.0, "step": 1968 }, { "epoch": 0.6563333333333333, "grad_norm": 22.122800827026367, "learning_rate": 7.09278350515464e-06, "loss": 0.3715, "num_tokens": 836362.0, "step": 1969 }, { "epoch": 0.6566666666666666, "grad_norm": 23.243736267089844, "learning_rate": 7.085910652920963e-06, "loss": 0.4661, "num_tokens": 836703.0, "step": 1970 }, { "epoch": 0.657, "grad_norm": 29.396623611450195, "learning_rate": 7.079037800687286e-06, "loss": 0.8074, "num_tokens": 837056.0, "step": 1971 }, { "epoch": 0.6573333333333333, "grad_norm": 12.173566818237305, "learning_rate": 7.072164948453609e-06, "loss": 0.2303, "num_tokens": 837615.0, "step": 1972 }, { "epoch": 0.6576666666666666, "grad_norm": 21.214635848999023, "learning_rate": 7.065292096219932e-06, "loss": 0.3167, "num_tokens": 837974.0, "step": 1973 }, { "epoch": 0.658, "grad_norm": 20.92000389099121, "learning_rate": 7.058419243986255e-06, "loss": 0.3646, "num_tokens": 838292.0, "step": 1974 }, { "epoch": 0.6583333333333333, "grad_norm": 15.852500915527344, "learning_rate": 7.051546391752578e-06, "loss": 0.2895, "num_tokens": 838777.0, "step": 1975 }, { "epoch": 0.6586666666666666, "grad_norm": 18.172460556030273, "learning_rate": 7.044673539518901e-06, "loss": 0.404, "num_tokens": 839308.0, "step": 1976 }, { "epoch": 0.659, "grad_norm": 18.58486557006836, "learning_rate": 7.037800687285224e-06, "loss": 0.3079, "num_tokens": 839645.0, "step": 1977 }, { "epoch": 0.6593333333333333, "grad_norm": 15.398082733154297, "learning_rate": 7.030927835051546e-06, "loss": 0.3627, "num_tokens": 840242.0, "step": 1978 }, { "epoch": 0.6596666666666666, "grad_norm": 14.478734016418457, "learning_rate": 7.024054982817869e-06, "loss": 0.2424, "num_tokens": 840869.0, "step": 1979 }, { "epoch": 0.66, "grad_norm": 13.616762161254883, "learning_rate": 7.017182130584192e-06, "loss": 0.2696, "num_tokens": 841505.0, "step": 1980 }, { "epoch": 0.6603333333333333, "grad_norm": 16.56591796875, "learning_rate": 7.010309278350515e-06, "loss": 0.2627, "num_tokens": 841956.0, "step": 1981 }, { "epoch": 0.6606666666666666, "grad_norm": 23.81220817565918, "learning_rate": 7.003436426116838e-06, "loss": 0.5014, "num_tokens": 842214.0, "step": 1982 }, { "epoch": 0.661, "grad_norm": 19.658105850219727, "learning_rate": 6.996563573883161e-06, "loss": 0.4275, "num_tokens": 842659.0, "step": 1983 }, { "epoch": 0.6613333333333333, "grad_norm": 24.427391052246094, "learning_rate": 6.989690721649484e-06, "loss": 0.482, "num_tokens": 843299.0, "step": 1984 }, { "epoch": 0.6616666666666666, "grad_norm": 14.716198921203613, "learning_rate": 6.982817869415807e-06, "loss": 0.273, "num_tokens": 843808.0, "step": 1985 }, { "epoch": 0.662, "grad_norm": 27.094728469848633, "learning_rate": 6.9759450171821304e-06, "loss": 0.6435, "num_tokens": 844158.0, "step": 1986 }, { "epoch": 0.6623333333333333, "grad_norm": 23.507183074951172, "learning_rate": 6.9690721649484534e-06, "loss": 0.4507, "num_tokens": 844428.0, "step": 1987 }, { "epoch": 0.6626666666666666, "grad_norm": 16.80852699279785, "learning_rate": 6.962199312714777e-06, "loss": 0.3695, "num_tokens": 844845.0, "step": 1988 }, { "epoch": 0.663, "grad_norm": 13.745657920837402, "learning_rate": 6.9553264604811e-06, "loss": 0.391, "num_tokens": 845609.0, "step": 1989 }, { "epoch": 0.6633333333333333, "grad_norm": 26.81498146057129, "learning_rate": 6.948453608247423e-06, "loss": 0.4411, "num_tokens": 845854.0, "step": 1990 }, { "epoch": 0.6636666666666666, "grad_norm": 23.00226402282715, "learning_rate": 6.941580756013746e-06, "loss": 0.4464, "num_tokens": 846146.0, "step": 1991 }, { "epoch": 0.664, "grad_norm": 15.425978660583496, "learning_rate": 6.934707903780069e-06, "loss": 0.3149, "num_tokens": 846596.0, "step": 1992 }, { "epoch": 0.6643333333333333, "grad_norm": 20.823122024536133, "learning_rate": 6.927835051546392e-06, "loss": 0.3035, "num_tokens": 847116.0, "step": 1993 }, { "epoch": 0.6646666666666666, "grad_norm": 25.717992782592773, "learning_rate": 6.920962199312715e-06, "loss": 0.5499, "num_tokens": 847469.0, "step": 1994 }, { "epoch": 0.665, "grad_norm": 21.234315872192383, "learning_rate": 6.914089347079038e-06, "loss": 0.4469, "num_tokens": 847867.0, "step": 1995 }, { "epoch": 0.6653333333333333, "grad_norm": 17.910966873168945, "learning_rate": 6.907216494845361e-06, "loss": 0.4489, "num_tokens": 848388.0, "step": 1996 }, { "epoch": 0.6656666666666666, "grad_norm": 32.29972457885742, "learning_rate": 6.900343642611684e-06, "loss": 0.6711, "num_tokens": 848643.0, "step": 1997 }, { "epoch": 0.666, "grad_norm": 12.759913444519043, "learning_rate": 6.893470790378007e-06, "loss": 0.1727, "num_tokens": 849044.0, "step": 1998 }, { "epoch": 0.6663333333333333, "grad_norm": 23.791940689086914, "learning_rate": 6.88659793814433e-06, "loss": 0.554, "num_tokens": 849442.0, "step": 1999 }, { "epoch": 0.6666666666666666, "grad_norm": 15.630463600158691, "learning_rate": 6.879725085910653e-06, "loss": 0.3231, "num_tokens": 849872.0, "step": 2000 }, { "epoch": 0.667, "grad_norm": 14.83838939666748, "learning_rate": 6.872852233676976e-06, "loss": 0.4272, "num_tokens": 850513.0, "step": 2001 }, { "epoch": 0.6673333333333333, "grad_norm": 24.079456329345703, "learning_rate": 6.865979381443299e-06, "loss": 0.4436, "num_tokens": 850860.0, "step": 2002 }, { "epoch": 0.6676666666666666, "grad_norm": 19.915788650512695, "learning_rate": 6.859106529209622e-06, "loss": 0.3998, "num_tokens": 851301.0, "step": 2003 }, { "epoch": 0.668, "grad_norm": 15.233692169189453, "learning_rate": 6.852233676975945e-06, "loss": 0.4415, "num_tokens": 851909.0, "step": 2004 }, { "epoch": 0.6683333333333333, "grad_norm": 28.52741813659668, "learning_rate": 6.8453608247422684e-06, "loss": 0.6169, "num_tokens": 852190.0, "step": 2005 }, { "epoch": 0.6686666666666666, "grad_norm": 26.098819732666016, "learning_rate": 6.8384879725085914e-06, "loss": 0.3684, "num_tokens": 852490.0, "step": 2006 }, { "epoch": 0.669, "grad_norm": 38.03865051269531, "learning_rate": 6.8316151202749144e-06, "loss": 0.4885, "num_tokens": 852688.0, "step": 2007 }, { "epoch": 0.6693333333333333, "grad_norm": 15.713632583618164, "learning_rate": 6.8247422680412375e-06, "loss": 0.2295, "num_tokens": 853088.0, "step": 2008 }, { "epoch": 0.6696666666666666, "grad_norm": 27.144969940185547, "learning_rate": 6.817869415807561e-06, "loss": 0.471, "num_tokens": 853468.0, "step": 2009 }, { "epoch": 0.67, "grad_norm": 13.522309303283691, "learning_rate": 6.810996563573884e-06, "loss": 0.2758, "num_tokens": 854016.0, "step": 2010 }, { "epoch": 0.6703333333333333, "grad_norm": 23.01026725769043, "learning_rate": 6.804123711340207e-06, "loss": 0.3168, "num_tokens": 854319.0, "step": 2011 }, { "epoch": 0.6706666666666666, "grad_norm": 20.965120315551758, "learning_rate": 6.79725085910653e-06, "loss": 0.328, "num_tokens": 854603.0, "step": 2012 }, { "epoch": 0.671, "grad_norm": 20.226688385009766, "learning_rate": 6.790378006872853e-06, "loss": 0.321, "num_tokens": 854951.0, "step": 2013 }, { "epoch": 0.6713333333333333, "grad_norm": 21.55441665649414, "learning_rate": 6.783505154639176e-06, "loss": 0.4184, "num_tokens": 855206.0, "step": 2014 }, { "epoch": 0.6716666666666666, "grad_norm": 13.312894821166992, "learning_rate": 6.776632302405499e-06, "loss": 0.2406, "num_tokens": 855880.0, "step": 2015 }, { "epoch": 0.672, "grad_norm": 28.825410842895508, "learning_rate": 6.769759450171822e-06, "loss": 0.5119, "num_tokens": 856129.0, "step": 2016 }, { "epoch": 0.6723333333333333, "grad_norm": 19.281272888183594, "learning_rate": 6.762886597938145e-06, "loss": 0.361, "num_tokens": 856518.0, "step": 2017 }, { "epoch": 0.6726666666666666, "grad_norm": 25.788982391357422, "learning_rate": 6.756013745704468e-06, "loss": 0.4422, "num_tokens": 856800.0, "step": 2018 }, { "epoch": 0.673, "grad_norm": 20.862394332885742, "learning_rate": 6.749140893470791e-06, "loss": 0.4482, "num_tokens": 857192.0, "step": 2019 }, { "epoch": 0.6733333333333333, "grad_norm": 32.94810104370117, "learning_rate": 6.742268041237114e-06, "loss": 0.6582, "num_tokens": 857413.0, "step": 2020 }, { "epoch": 0.6736666666666666, "grad_norm": 10.90809440612793, "learning_rate": 6.735395189003437e-06, "loss": 0.1726, "num_tokens": 858000.0, "step": 2021 }, { "epoch": 0.674, "grad_norm": 17.369325637817383, "learning_rate": 6.72852233676976e-06, "loss": 0.2637, "num_tokens": 858379.0, "step": 2022 }, { "epoch": 0.6743333333333333, "grad_norm": 20.29730987548828, "learning_rate": 6.7216494845360834e-06, "loss": 0.3035, "num_tokens": 858822.0, "step": 2023 }, { "epoch": 0.6746666666666666, "grad_norm": 15.29811954498291, "learning_rate": 6.714776632302406e-06, "loss": 0.3568, "num_tokens": 859277.0, "step": 2024 }, { "epoch": 0.675, "grad_norm": 23.191619873046875, "learning_rate": 6.707903780068729e-06, "loss": 0.4308, "num_tokens": 859601.0, "step": 2025 }, { "epoch": 0.6753333333333333, "grad_norm": 23.298307418823242, "learning_rate": 6.701030927835052e-06, "loss": 0.5188, "num_tokens": 860042.0, "step": 2026 }, { "epoch": 0.6756666666666666, "grad_norm": 21.949241638183594, "learning_rate": 6.694158075601375e-06, "loss": 0.4043, "num_tokens": 860461.0, "step": 2027 }, { "epoch": 0.676, "grad_norm": 22.512319564819336, "learning_rate": 6.687285223367698e-06, "loss": 0.467, "num_tokens": 860832.0, "step": 2028 }, { "epoch": 0.6763333333333333, "grad_norm": 13.517208099365234, "learning_rate": 6.680412371134021e-06, "loss": 0.2817, "num_tokens": 861383.0, "step": 2029 }, { "epoch": 0.6766666666666666, "grad_norm": 13.073150634765625, "learning_rate": 6.673539518900344e-06, "loss": 0.2933, "num_tokens": 862023.0, "step": 2030 }, { "epoch": 0.677, "grad_norm": 21.457624435424805, "learning_rate": 6.666666666666667e-06, "loss": 0.3856, "num_tokens": 862363.0, "step": 2031 }, { "epoch": 0.6773333333333333, "grad_norm": 21.08776092529297, "learning_rate": 6.65979381443299e-06, "loss": 0.3768, "num_tokens": 862669.0, "step": 2032 }, { "epoch": 0.6776666666666666, "grad_norm": 17.98319435119629, "learning_rate": 6.652920962199313e-06, "loss": 0.281, "num_tokens": 863117.0, "step": 2033 }, { "epoch": 0.678, "grad_norm": 12.962196350097656, "learning_rate": 6.646048109965636e-06, "loss": 0.2015, "num_tokens": 863584.0, "step": 2034 }, { "epoch": 0.6783333333333333, "grad_norm": 16.655588150024414, "learning_rate": 6.639175257731959e-06, "loss": 0.285, "num_tokens": 863928.0, "step": 2035 }, { "epoch": 0.6786666666666666, "grad_norm": 20.18808937072754, "learning_rate": 6.632302405498282e-06, "loss": 0.4245, "num_tokens": 864332.0, "step": 2036 }, { "epoch": 0.679, "grad_norm": 12.924886703491211, "learning_rate": 6.6254295532646055e-06, "loss": 0.2132, "num_tokens": 865137.0, "step": 2037 }, { "epoch": 0.6793333333333333, "grad_norm": 28.7878360748291, "learning_rate": 6.6185567010309286e-06, "loss": 0.4223, "num_tokens": 865577.0, "step": 2038 }, { "epoch": 0.6796666666666666, "grad_norm": 36.527713775634766, "learning_rate": 6.6116838487972516e-06, "loss": 0.5118, "num_tokens": 865920.0, "step": 2039 }, { "epoch": 0.68, "grad_norm": 19.936616897583008, "learning_rate": 6.6048109965635746e-06, "loss": 0.2827, "num_tokens": 866318.0, "step": 2040 }, { "epoch": 0.6803333333333333, "grad_norm": 20.856422424316406, "learning_rate": 6.597938144329898e-06, "loss": 0.3594, "num_tokens": 866688.0, "step": 2041 }, { "epoch": 0.6806666666666666, "grad_norm": 16.555625915527344, "learning_rate": 6.591065292096221e-06, "loss": 0.3501, "num_tokens": 867167.0, "step": 2042 }, { "epoch": 0.681, "grad_norm": 18.474468231201172, "learning_rate": 6.584192439862544e-06, "loss": 0.3057, "num_tokens": 867550.0, "step": 2043 }, { "epoch": 0.6813333333333333, "grad_norm": 14.969985008239746, "learning_rate": 6.577319587628867e-06, "loss": 0.2709, "num_tokens": 868045.0, "step": 2044 }, { "epoch": 0.6816666666666666, "grad_norm": 18.293363571166992, "learning_rate": 6.57044673539519e-06, "loss": 0.3058, "num_tokens": 868332.0, "step": 2045 }, { "epoch": 0.682, "grad_norm": 18.75542640686035, "learning_rate": 6.563573883161513e-06, "loss": 0.2614, "num_tokens": 868667.0, "step": 2046 }, { "epoch": 0.6823333333333333, "grad_norm": 12.631315231323242, "learning_rate": 6.556701030927836e-06, "loss": 0.2115, "num_tokens": 869134.0, "step": 2047 }, { "epoch": 0.6826666666666666, "grad_norm": 19.732337951660156, "learning_rate": 6.549828178694159e-06, "loss": 0.2782, "num_tokens": 869479.0, "step": 2048 }, { "epoch": 0.683, "grad_norm": 17.19246482849121, "learning_rate": 6.542955326460482e-06, "loss": 0.3457, "num_tokens": 869855.0, "step": 2049 }, { "epoch": 0.6833333333333333, "grad_norm": 33.665374755859375, "learning_rate": 6.536082474226805e-06, "loss": 0.5513, "num_tokens": 870114.0, "step": 2050 }, { "epoch": 0.6836666666666666, "grad_norm": 29.85553741455078, "learning_rate": 6.529209621993128e-06, "loss": 0.3376, "num_tokens": 870368.0, "step": 2051 }, { "epoch": 0.684, "grad_norm": 14.964091300964355, "learning_rate": 6.522336769759451e-06, "loss": 0.2183, "num_tokens": 870766.0, "step": 2052 }, { "epoch": 0.6843333333333333, "grad_norm": 20.801713943481445, "learning_rate": 6.515463917525774e-06, "loss": 0.3559, "num_tokens": 871099.0, "step": 2053 }, { "epoch": 0.6846666666666666, "grad_norm": 21.769628524780273, "learning_rate": 6.508591065292097e-06, "loss": 0.3637, "num_tokens": 871430.0, "step": 2054 }, { "epoch": 0.685, "grad_norm": 25.185007095336914, "learning_rate": 6.50171821305842e-06, "loss": 0.4581, "num_tokens": 871796.0, "step": 2055 }, { "epoch": 0.6853333333333333, "grad_norm": 21.602745056152344, "learning_rate": 6.494845360824743e-06, "loss": 0.2848, "num_tokens": 872063.0, "step": 2056 }, { "epoch": 0.6856666666666666, "grad_norm": 21.409969329833984, "learning_rate": 6.487972508591066e-06, "loss": 0.3245, "num_tokens": 872394.0, "step": 2057 }, { "epoch": 0.686, "grad_norm": 20.3123779296875, "learning_rate": 6.481099656357389e-06, "loss": 0.3974, "num_tokens": 872841.0, "step": 2058 }, { "epoch": 0.6863333333333334, "grad_norm": 20.93915367126465, "learning_rate": 6.4742268041237126e-06, "loss": 0.3602, "num_tokens": 873181.0, "step": 2059 }, { "epoch": 0.6866666666666666, "grad_norm": 16.290971755981445, "learning_rate": 6.467353951890036e-06, "loss": 0.2884, "num_tokens": 873609.0, "step": 2060 }, { "epoch": 0.687, "grad_norm": 18.992490768432617, "learning_rate": 6.460481099656359e-06, "loss": 0.2621, "num_tokens": 873983.0, "step": 2061 }, { "epoch": 0.6873333333333334, "grad_norm": 20.915103912353516, "learning_rate": 6.453608247422682e-06, "loss": 0.2717, "num_tokens": 874398.0, "step": 2062 }, { "epoch": 0.6876666666666666, "grad_norm": 13.69018268585205, "learning_rate": 6.446735395189005e-06, "loss": 0.1806, "num_tokens": 874990.0, "step": 2063 }, { "epoch": 0.688, "grad_norm": 17.682512283325195, "learning_rate": 6.439862542955328e-06, "loss": 0.3005, "num_tokens": 875337.0, "step": 2064 }, { "epoch": 0.6883333333333334, "grad_norm": 19.00334930419922, "learning_rate": 6.432989690721651e-06, "loss": 0.4193, "num_tokens": 875670.0, "step": 2065 }, { "epoch": 0.6886666666666666, "grad_norm": 24.83536148071289, "learning_rate": 6.426116838487974e-06, "loss": 0.4623, "num_tokens": 876021.0, "step": 2066 }, { "epoch": 0.689, "grad_norm": 20.063142776489258, "learning_rate": 6.419243986254297e-06, "loss": 0.3219, "num_tokens": 876403.0, "step": 2067 }, { "epoch": 0.6893333333333334, "grad_norm": 13.440114974975586, "learning_rate": 6.41237113402062e-06, "loss": 0.2565, "num_tokens": 876951.0, "step": 2068 }, { "epoch": 0.6896666666666667, "grad_norm": 17.954078674316406, "learning_rate": 6.405498281786942e-06, "loss": 0.416, "num_tokens": 877511.0, "step": 2069 }, { "epoch": 0.69, "grad_norm": 19.594253540039062, "learning_rate": 6.398625429553265e-06, "loss": 0.2961, "num_tokens": 878010.0, "step": 2070 }, { "epoch": 0.6903333333333334, "grad_norm": 26.99733543395996, "learning_rate": 6.391752577319588e-06, "loss": 0.5079, "num_tokens": 878377.0, "step": 2071 }, { "epoch": 0.6906666666666667, "grad_norm": 16.77251434326172, "learning_rate": 6.384879725085911e-06, "loss": 0.3103, "num_tokens": 878795.0, "step": 2072 }, { "epoch": 0.691, "grad_norm": 18.31101417541504, "learning_rate": 6.378006872852234e-06, "loss": 0.3173, "num_tokens": 879228.0, "step": 2073 }, { "epoch": 0.6913333333333334, "grad_norm": 20.9191837310791, "learning_rate": 6.371134020618557e-06, "loss": 0.3434, "num_tokens": 879528.0, "step": 2074 }, { "epoch": 0.6916666666666667, "grad_norm": 25.326332092285156, "learning_rate": 6.36426116838488e-06, "loss": 0.698, "num_tokens": 879880.0, "step": 2075 }, { "epoch": 0.692, "grad_norm": 24.642009735107422, "learning_rate": 6.357388316151203e-06, "loss": 0.3991, "num_tokens": 880178.0, "step": 2076 }, { "epoch": 0.6923333333333334, "grad_norm": 41.0301399230957, "learning_rate": 6.350515463917526e-06, "loss": 0.7039, "num_tokens": 880384.0, "step": 2077 }, { "epoch": 0.6926666666666667, "grad_norm": 23.0405216217041, "learning_rate": 6.343642611683849e-06, "loss": 0.3942, "num_tokens": 880660.0, "step": 2078 }, { "epoch": 0.693, "grad_norm": 19.015270233154297, "learning_rate": 6.336769759450172e-06, "loss": 0.3524, "num_tokens": 881111.0, "step": 2079 }, { "epoch": 0.6933333333333334, "grad_norm": 13.3449125289917, "learning_rate": 6.329896907216495e-06, "loss": 0.284, "num_tokens": 881671.0, "step": 2080 }, { "epoch": 0.6936666666666667, "grad_norm": 33.79216384887695, "learning_rate": 6.323024054982818e-06, "loss": 0.3468, "num_tokens": 881990.0, "step": 2081 }, { "epoch": 0.694, "grad_norm": 13.877374649047852, "learning_rate": 6.316151202749141e-06, "loss": 0.2906, "num_tokens": 882591.0, "step": 2082 }, { "epoch": 0.6943333333333334, "grad_norm": 28.948015213012695, "learning_rate": 6.309278350515464e-06, "loss": 0.5258, "num_tokens": 882868.0, "step": 2083 }, { "epoch": 0.6946666666666667, "grad_norm": 17.922590255737305, "learning_rate": 6.302405498281787e-06, "loss": 0.2708, "num_tokens": 883304.0, "step": 2084 }, { "epoch": 0.695, "grad_norm": 12.25877571105957, "learning_rate": 6.29553264604811e-06, "loss": 0.2803, "num_tokens": 883941.0, "step": 2085 }, { "epoch": 0.6953333333333334, "grad_norm": 13.567490577697754, "learning_rate": 6.288659793814433e-06, "loss": 0.2804, "num_tokens": 884604.0, "step": 2086 }, { "epoch": 0.6956666666666667, "grad_norm": 25.64910316467285, "learning_rate": 6.281786941580757e-06, "loss": 0.5993, "num_tokens": 884983.0, "step": 2087 }, { "epoch": 0.696, "grad_norm": 23.957307815551758, "learning_rate": 6.27491408934708e-06, "loss": 0.3859, "num_tokens": 885235.0, "step": 2088 }, { "epoch": 0.6963333333333334, "grad_norm": 11.649251937866211, "learning_rate": 6.268041237113403e-06, "loss": 0.1941, "num_tokens": 885670.0, "step": 2089 }, { "epoch": 0.6966666666666667, "grad_norm": 37.9583625793457, "learning_rate": 6.261168384879726e-06, "loss": 0.6646, "num_tokens": 885923.0, "step": 2090 }, { "epoch": 0.697, "grad_norm": 28.150108337402344, "learning_rate": 6.254295532646049e-06, "loss": 0.3678, "num_tokens": 886141.0, "step": 2091 }, { "epoch": 0.6973333333333334, "grad_norm": 23.4705867767334, "learning_rate": 6.247422680412372e-06, "loss": 0.4916, "num_tokens": 886560.0, "step": 2092 }, { "epoch": 0.6976666666666667, "grad_norm": 13.967940330505371, "learning_rate": 6.240549828178695e-06, "loss": 0.2076, "num_tokens": 887004.0, "step": 2093 }, { "epoch": 0.698, "grad_norm": 17.643211364746094, "learning_rate": 6.233676975945018e-06, "loss": 0.2454, "num_tokens": 887438.0, "step": 2094 }, { "epoch": 0.6983333333333334, "grad_norm": 20.929861068725586, "learning_rate": 6.226804123711341e-06, "loss": 0.284, "num_tokens": 887727.0, "step": 2095 }, { "epoch": 0.6986666666666667, "grad_norm": 33.52161407470703, "learning_rate": 6.219931271477664e-06, "loss": 0.2266, "num_tokens": 888174.0, "step": 2096 }, { "epoch": 0.699, "grad_norm": 14.048602104187012, "learning_rate": 6.213058419243987e-06, "loss": 0.313, "num_tokens": 888806.0, "step": 2097 }, { "epoch": 0.6993333333333334, "grad_norm": 16.89581871032715, "learning_rate": 6.20618556701031e-06, "loss": 0.2573, "num_tokens": 889274.0, "step": 2098 }, { "epoch": 0.6996666666666667, "grad_norm": 20.31707000732422, "learning_rate": 6.199312714776633e-06, "loss": 0.4051, "num_tokens": 889719.0, "step": 2099 }, { "epoch": 0.7, "grad_norm": 24.1249942779541, "learning_rate": 6.192439862542956e-06, "loss": 0.4162, "num_tokens": 889995.0, "step": 2100 }, { "epoch": 0.7003333333333334, "grad_norm": 23.365671157836914, "learning_rate": 6.185567010309279e-06, "loss": 0.4389, "num_tokens": 890257.0, "step": 2101 }, { "epoch": 0.7006666666666667, "grad_norm": 11.949461936950684, "learning_rate": 6.178694158075602e-06, "loss": 0.2323, "num_tokens": 890964.0, "step": 2102 }, { "epoch": 0.701, "grad_norm": 13.220065116882324, "learning_rate": 6.171821305841925e-06, "loss": 0.2598, "num_tokens": 891745.0, "step": 2103 }, { "epoch": 0.7013333333333334, "grad_norm": 10.02200984954834, "learning_rate": 6.164948453608248e-06, "loss": 0.1872, "num_tokens": 892330.0, "step": 2104 }, { "epoch": 0.7016666666666667, "grad_norm": 21.247770309448242, "learning_rate": 6.158075601374571e-06, "loss": 0.5111, "num_tokens": 892761.0, "step": 2105 }, { "epoch": 0.702, "grad_norm": 16.06809425354004, "learning_rate": 6.151202749140894e-06, "loss": 0.3087, "num_tokens": 893187.0, "step": 2106 }, { "epoch": 0.7023333333333334, "grad_norm": 18.262971878051758, "learning_rate": 6.144329896907217e-06, "loss": 0.3528, "num_tokens": 893636.0, "step": 2107 }, { "epoch": 0.7026666666666667, "grad_norm": 26.28264617919922, "learning_rate": 6.137457044673541e-06, "loss": 0.3924, "num_tokens": 893937.0, "step": 2108 }, { "epoch": 0.703, "grad_norm": 16.76107406616211, "learning_rate": 6.130584192439864e-06, "loss": 0.3533, "num_tokens": 894483.0, "step": 2109 }, { "epoch": 0.7033333333333334, "grad_norm": 12.929542541503906, "learning_rate": 6.123711340206187e-06, "loss": 0.2524, "num_tokens": 895105.0, "step": 2110 }, { "epoch": 0.7036666666666667, "grad_norm": 24.621614456176758, "learning_rate": 6.11683848797251e-06, "loss": 0.5111, "num_tokens": 895508.0, "step": 2111 }, { "epoch": 0.704, "grad_norm": 19.81299591064453, "learning_rate": 6.109965635738833e-06, "loss": 0.3763, "num_tokens": 895868.0, "step": 2112 }, { "epoch": 0.7043333333333334, "grad_norm": 16.916610717773438, "learning_rate": 6.103092783505156e-06, "loss": 0.3684, "num_tokens": 896320.0, "step": 2113 }, { "epoch": 0.7046666666666667, "grad_norm": 17.012794494628906, "learning_rate": 6.096219931271479e-06, "loss": 0.2427, "num_tokens": 896661.0, "step": 2114 }, { "epoch": 0.705, "grad_norm": 21.469324111938477, "learning_rate": 6.089347079037801e-06, "loss": 0.3705, "num_tokens": 897019.0, "step": 2115 }, { "epoch": 0.7053333333333334, "grad_norm": 21.977380752563477, "learning_rate": 6.082474226804124e-06, "loss": 0.4049, "num_tokens": 897329.0, "step": 2116 }, { "epoch": 0.7056666666666667, "grad_norm": 11.379722595214844, "learning_rate": 6.075601374570447e-06, "loss": 0.2239, "num_tokens": 897828.0, "step": 2117 }, { "epoch": 0.706, "grad_norm": 14.672250747680664, "learning_rate": 6.06872852233677e-06, "loss": 0.286, "num_tokens": 898345.0, "step": 2118 }, { "epoch": 0.7063333333333334, "grad_norm": 25.334871292114258, "learning_rate": 6.061855670103093e-06, "loss": 0.5807, "num_tokens": 898670.0, "step": 2119 }, { "epoch": 0.7066666666666667, "grad_norm": 14.23010540008545, "learning_rate": 6.054982817869416e-06, "loss": 0.2289, "num_tokens": 899049.0, "step": 2120 }, { "epoch": 0.707, "grad_norm": 12.487465858459473, "learning_rate": 6.048109965635739e-06, "loss": 0.2077, "num_tokens": 899649.0, "step": 2121 }, { "epoch": 0.7073333333333334, "grad_norm": 17.662229537963867, "learning_rate": 6.041237113402062e-06, "loss": 0.4092, "num_tokens": 900220.0, "step": 2122 }, { "epoch": 0.7076666666666667, "grad_norm": 11.450592041015625, "learning_rate": 6.034364261168385e-06, "loss": 0.2379, "num_tokens": 900742.0, "step": 2123 }, { "epoch": 0.708, "grad_norm": 18.98414421081543, "learning_rate": 6.027491408934708e-06, "loss": 0.247, "num_tokens": 901037.0, "step": 2124 }, { "epoch": 0.7083333333333334, "grad_norm": 25.69609260559082, "learning_rate": 6.020618556701031e-06, "loss": 0.3959, "num_tokens": 901288.0, "step": 2125 }, { "epoch": 0.7086666666666667, "grad_norm": 18.462949752807617, "learning_rate": 6.013745704467354e-06, "loss": 0.3361, "num_tokens": 901827.0, "step": 2126 }, { "epoch": 0.709, "grad_norm": 9.678936004638672, "learning_rate": 6.006872852233677e-06, "loss": 0.1991, "num_tokens": 902822.0, "step": 2127 }, { "epoch": 0.7093333333333334, "grad_norm": 11.207127571105957, "learning_rate": 6e-06, "loss": 0.2397, "num_tokens": 903790.0, "step": 2128 }, { "epoch": 0.7096666666666667, "grad_norm": 11.633286476135254, "learning_rate": 5.993127147766323e-06, "loss": 0.2144, "num_tokens": 904288.0, "step": 2129 }, { "epoch": 0.71, "grad_norm": 13.401837348937988, "learning_rate": 5.986254295532646e-06, "loss": 0.1988, "num_tokens": 904729.0, "step": 2130 }, { "epoch": 0.7103333333333334, "grad_norm": 35.47945785522461, "learning_rate": 5.979381443298969e-06, "loss": 0.5866, "num_tokens": 904951.0, "step": 2131 }, { "epoch": 0.7106666666666667, "grad_norm": 19.190641403198242, "learning_rate": 5.972508591065292e-06, "loss": 0.3394, "num_tokens": 905380.0, "step": 2132 }, { "epoch": 0.711, "grad_norm": 45.18611526489258, "learning_rate": 5.965635738831615e-06, "loss": 0.7757, "num_tokens": 905657.0, "step": 2133 }, { "epoch": 0.7113333333333334, "grad_norm": 16.688302993774414, "learning_rate": 5.958762886597938e-06, "loss": 0.3165, "num_tokens": 906016.0, "step": 2134 }, { "epoch": 0.7116666666666667, "grad_norm": 28.398218154907227, "learning_rate": 5.951890034364261e-06, "loss": 0.4029, "num_tokens": 906318.0, "step": 2135 }, { "epoch": 0.712, "grad_norm": 16.127975463867188, "learning_rate": 5.945017182130585e-06, "loss": 0.2812, "num_tokens": 906810.0, "step": 2136 }, { "epoch": 0.7123333333333334, "grad_norm": 27.753507614135742, "learning_rate": 5.938144329896908e-06, "loss": 0.5567, "num_tokens": 907065.0, "step": 2137 }, { "epoch": 0.7126666666666667, "grad_norm": 11.103106498718262, "learning_rate": 5.931271477663231e-06, "loss": 0.1996, "num_tokens": 907896.0, "step": 2138 }, { "epoch": 0.713, "grad_norm": 18.28860092163086, "learning_rate": 5.924398625429554e-06, "loss": 0.3669, "num_tokens": 908382.0, "step": 2139 }, { "epoch": 0.7133333333333334, "grad_norm": 10.533638000488281, "learning_rate": 5.917525773195877e-06, "loss": 0.2019, "num_tokens": 908988.0, "step": 2140 }, { "epoch": 0.7136666666666667, "grad_norm": 12.52386474609375, "learning_rate": 5.9106529209622e-06, "loss": 0.258, "num_tokens": 909572.0, "step": 2141 }, { "epoch": 0.714, "grad_norm": 26.50151824951172, "learning_rate": 5.903780068728523e-06, "loss": 0.4552, "num_tokens": 909912.0, "step": 2142 }, { "epoch": 0.7143333333333334, "grad_norm": 17.9786319732666, "learning_rate": 5.896907216494846e-06, "loss": 0.2756, "num_tokens": 910370.0, "step": 2143 }, { "epoch": 0.7146666666666667, "grad_norm": 13.56090259552002, "learning_rate": 5.890034364261169e-06, "loss": 0.2659, "num_tokens": 910866.0, "step": 2144 }, { "epoch": 0.715, "grad_norm": 25.6044921875, "learning_rate": 5.883161512027492e-06, "loss": 0.4256, "num_tokens": 911096.0, "step": 2145 }, { "epoch": 0.7153333333333334, "grad_norm": 13.26872444152832, "learning_rate": 5.876288659793815e-06, "loss": 0.2207, "num_tokens": 911465.0, "step": 2146 }, { "epoch": 0.7156666666666667, "grad_norm": 10.605494499206543, "learning_rate": 5.869415807560138e-06, "loss": 0.277, "num_tokens": 912359.0, "step": 2147 }, { "epoch": 0.716, "grad_norm": 50.98188400268555, "learning_rate": 5.862542955326461e-06, "loss": 0.2919, "num_tokens": 912626.0, "step": 2148 }, { "epoch": 0.7163333333333334, "grad_norm": 18.536760330200195, "learning_rate": 5.855670103092784e-06, "loss": 0.3304, "num_tokens": 912965.0, "step": 2149 }, { "epoch": 0.7166666666666667, "grad_norm": 17.33234405517578, "learning_rate": 5.848797250859107e-06, "loss": 0.3049, "num_tokens": 913313.0, "step": 2150 }, { "epoch": 0.717, "grad_norm": 31.560789108276367, "learning_rate": 5.84192439862543e-06, "loss": 0.567, "num_tokens": 913607.0, "step": 2151 }, { "epoch": 0.7173333333333334, "grad_norm": 19.46171760559082, "learning_rate": 5.835051546391753e-06, "loss": 0.3525, "num_tokens": 913964.0, "step": 2152 }, { "epoch": 0.7176666666666667, "grad_norm": 22.84758186340332, "learning_rate": 5.828178694158076e-06, "loss": 0.4621, "num_tokens": 914280.0, "step": 2153 }, { "epoch": 0.718, "grad_norm": 15.316756248474121, "learning_rate": 5.821305841924399e-06, "loss": 0.297, "num_tokens": 914757.0, "step": 2154 }, { "epoch": 0.7183333333333334, "grad_norm": 27.961231231689453, "learning_rate": 5.814432989690722e-06, "loss": 0.6139, "num_tokens": 915086.0, "step": 2155 }, { "epoch": 0.7186666666666667, "grad_norm": 19.017305374145508, "learning_rate": 5.807560137457045e-06, "loss": 0.3366, "num_tokens": 915471.0, "step": 2156 }, { "epoch": 0.719, "grad_norm": 21.697172164916992, "learning_rate": 5.800687285223368e-06, "loss": 0.4299, "num_tokens": 915937.0, "step": 2157 }, { "epoch": 0.7193333333333334, "grad_norm": 15.622834205627441, "learning_rate": 5.793814432989692e-06, "loss": 0.3034, "num_tokens": 916540.0, "step": 2158 }, { "epoch": 0.7196666666666667, "grad_norm": 13.575840950012207, "learning_rate": 5.786941580756015e-06, "loss": 0.2484, "num_tokens": 917044.0, "step": 2159 }, { "epoch": 0.72, "grad_norm": 26.614194869995117, "learning_rate": 5.780068728522336e-06, "loss": 0.3703, "num_tokens": 917343.0, "step": 2160 }, { "epoch": 0.7203333333333334, "grad_norm": 31.649639129638672, "learning_rate": 5.7731958762886594e-06, "loss": 0.7813, "num_tokens": 917676.0, "step": 2161 }, { "epoch": 0.7206666666666667, "grad_norm": 25.04767417907715, "learning_rate": 5.7663230240549824e-06, "loss": 0.4584, "num_tokens": 917963.0, "step": 2162 }, { "epoch": 0.721, "grad_norm": 18.300392150878906, "learning_rate": 5.7594501718213054e-06, "loss": 0.2842, "num_tokens": 918329.0, "step": 2163 }, { "epoch": 0.7213333333333334, "grad_norm": 11.982629776000977, "learning_rate": 5.752577319587629e-06, "loss": 0.1892, "num_tokens": 918970.0, "step": 2164 }, { "epoch": 0.7216666666666667, "grad_norm": 18.063405990600586, "learning_rate": 5.745704467353952e-06, "loss": 0.3992, "num_tokens": 919419.0, "step": 2165 }, { "epoch": 0.722, "grad_norm": 22.074140548706055, "learning_rate": 5.738831615120275e-06, "loss": 0.5032, "num_tokens": 919820.0, "step": 2166 }, { "epoch": 0.7223333333333334, "grad_norm": 20.331018447875977, "learning_rate": 5.731958762886598e-06, "loss": 0.4271, "num_tokens": 920148.0, "step": 2167 }, { "epoch": 0.7226666666666667, "grad_norm": 23.00054931640625, "learning_rate": 5.725085910652921e-06, "loss": 0.4462, "num_tokens": 920513.0, "step": 2168 }, { "epoch": 0.723, "grad_norm": 31.26763343811035, "learning_rate": 5.718213058419244e-06, "loss": 0.5394, "num_tokens": 920750.0, "step": 2169 }, { "epoch": 0.7233333333333334, "grad_norm": 19.76226043701172, "learning_rate": 5.711340206185567e-06, "loss": 0.3296, "num_tokens": 921024.0, "step": 2170 }, { "epoch": 0.7236666666666667, "grad_norm": 10.60330581665039, "learning_rate": 5.70446735395189e-06, "loss": 0.2076, "num_tokens": 921671.0, "step": 2171 }, { "epoch": 0.724, "grad_norm": 23.94361686706543, "learning_rate": 5.697594501718213e-06, "loss": 0.4095, "num_tokens": 921956.0, "step": 2172 }, { "epoch": 0.7243333333333334, "grad_norm": 13.200092315673828, "learning_rate": 5.690721649484536e-06, "loss": 0.2198, "num_tokens": 922627.0, "step": 2173 }, { "epoch": 0.7246666666666667, "grad_norm": 18.628326416015625, "learning_rate": 5.683848797250859e-06, "loss": 0.3599, "num_tokens": 923111.0, "step": 2174 }, { "epoch": 0.725, "grad_norm": 18.40713882446289, "learning_rate": 5.676975945017182e-06, "loss": 0.289, "num_tokens": 923429.0, "step": 2175 }, { "epoch": 0.7253333333333334, "grad_norm": 21.200695037841797, "learning_rate": 5.670103092783505e-06, "loss": 0.4406, "num_tokens": 923787.0, "step": 2176 }, { "epoch": 0.7256666666666667, "grad_norm": 13.728710174560547, "learning_rate": 5.663230240549828e-06, "loss": 0.2796, "num_tokens": 924456.0, "step": 2177 }, { "epoch": 0.726, "grad_norm": 15.218778610229492, "learning_rate": 5.656357388316151e-06, "loss": 0.3056, "num_tokens": 925045.0, "step": 2178 }, { "epoch": 0.7263333333333334, "grad_norm": 28.638978958129883, "learning_rate": 5.6494845360824744e-06, "loss": 0.5179, "num_tokens": 925336.0, "step": 2179 }, { "epoch": 0.7266666666666667, "grad_norm": 12.20557975769043, "learning_rate": 5.6426116838487974e-06, "loss": 0.2383, "num_tokens": 925769.0, "step": 2180 }, { "epoch": 0.727, "grad_norm": 31.13678741455078, "learning_rate": 5.6357388316151204e-06, "loss": 0.5167, "num_tokens": 926093.0, "step": 2181 }, { "epoch": 0.7273333333333334, "grad_norm": 71.55924224853516, "learning_rate": 5.6288659793814435e-06, "loss": 0.2862, "num_tokens": 926498.0, "step": 2182 }, { "epoch": 0.7276666666666667, "grad_norm": 14.53125, "learning_rate": 5.6219931271477665e-06, "loss": 0.3182, "num_tokens": 927040.0, "step": 2183 }, { "epoch": 0.728, "grad_norm": 14.465657234191895, "learning_rate": 5.6151202749140895e-06, "loss": 0.1862, "num_tokens": 927365.0, "step": 2184 }, { "epoch": 0.7283333333333334, "grad_norm": 16.209177017211914, "learning_rate": 5.6082474226804125e-06, "loss": 0.3491, "num_tokens": 928016.0, "step": 2185 }, { "epoch": 0.7286666666666667, "grad_norm": 29.452423095703125, "learning_rate": 5.601374570446736e-06, "loss": 0.6304, "num_tokens": 928274.0, "step": 2186 }, { "epoch": 0.729, "grad_norm": 15.889106750488281, "learning_rate": 5.594501718213059e-06, "loss": 0.2093, "num_tokens": 928662.0, "step": 2187 }, { "epoch": 0.7293333333333333, "grad_norm": 24.366418838500977, "learning_rate": 5.587628865979382e-06, "loss": 0.379, "num_tokens": 929014.0, "step": 2188 }, { "epoch": 0.7296666666666667, "grad_norm": 18.42959976196289, "learning_rate": 5.580756013745705e-06, "loss": 0.3057, "num_tokens": 929443.0, "step": 2189 }, { "epoch": 0.73, "grad_norm": 20.369014739990234, "learning_rate": 5.573883161512028e-06, "loss": 0.4757, "num_tokens": 929902.0, "step": 2190 }, { "epoch": 0.7303333333333333, "grad_norm": 13.034236907958984, "learning_rate": 5.567010309278351e-06, "loss": 0.2583, "num_tokens": 930407.0, "step": 2191 }, { "epoch": 0.7306666666666667, "grad_norm": 20.997764587402344, "learning_rate": 5.560137457044674e-06, "loss": 0.4598, "num_tokens": 930847.0, "step": 2192 }, { "epoch": 0.731, "grad_norm": 25.03601837158203, "learning_rate": 5.553264604810997e-06, "loss": 0.5344, "num_tokens": 931192.0, "step": 2193 }, { "epoch": 0.7313333333333333, "grad_norm": 19.136808395385742, "learning_rate": 5.54639175257732e-06, "loss": 0.2995, "num_tokens": 931616.0, "step": 2194 }, { "epoch": 0.7316666666666667, "grad_norm": 17.6192626953125, "learning_rate": 5.539518900343643e-06, "loss": 0.2925, "num_tokens": 932098.0, "step": 2195 }, { "epoch": 0.732, "grad_norm": 11.49759292602539, "learning_rate": 5.532646048109966e-06, "loss": 0.1835, "num_tokens": 932695.0, "step": 2196 }, { "epoch": 0.7323333333333333, "grad_norm": 22.332984924316406, "learning_rate": 5.525773195876289e-06, "loss": 0.361, "num_tokens": 933049.0, "step": 2197 }, { "epoch": 0.7326666666666667, "grad_norm": 15.071314811706543, "learning_rate": 5.5189003436426124e-06, "loss": 0.2203, "num_tokens": 933374.0, "step": 2198 }, { "epoch": 0.733, "grad_norm": 18.931604385375977, "learning_rate": 5.5120274914089354e-06, "loss": 0.3572, "num_tokens": 933739.0, "step": 2199 }, { "epoch": 0.7333333333333333, "grad_norm": 16.68095588684082, "learning_rate": 5.5051546391752584e-06, "loss": 0.3281, "num_tokens": 934361.0, "step": 2200 }, { "epoch": 0.7336666666666667, "grad_norm": 12.902832984924316, "learning_rate": 5.4982817869415815e-06, "loss": 0.1994, "num_tokens": 934704.0, "step": 2201 }, { "epoch": 0.734, "grad_norm": 44.25706100463867, "learning_rate": 5.4914089347079045e-06, "loss": 0.1888, "num_tokens": 935244.0, "step": 2202 }, { "epoch": 0.7343333333333333, "grad_norm": 21.473066329956055, "learning_rate": 5.4845360824742275e-06, "loss": 0.3182, "num_tokens": 935587.0, "step": 2203 }, { "epoch": 0.7346666666666667, "grad_norm": 18.03799057006836, "learning_rate": 5.4776632302405505e-06, "loss": 0.3109, "num_tokens": 935938.0, "step": 2204 }, { "epoch": 0.735, "grad_norm": 16.83197021484375, "learning_rate": 5.4707903780068735e-06, "loss": 0.2821, "num_tokens": 936328.0, "step": 2205 }, { "epoch": 0.7353333333333333, "grad_norm": 18.83180046081543, "learning_rate": 5.463917525773196e-06, "loss": 0.2831, "num_tokens": 936742.0, "step": 2206 }, { "epoch": 0.7356666666666667, "grad_norm": 13.748254776000977, "learning_rate": 5.457044673539519e-06, "loss": 0.182, "num_tokens": 937237.0, "step": 2207 }, { "epoch": 0.736, "grad_norm": 16.586761474609375, "learning_rate": 5.450171821305842e-06, "loss": 0.2295, "num_tokens": 937775.0, "step": 2208 }, { "epoch": 0.7363333333333333, "grad_norm": 24.673675537109375, "learning_rate": 5.443298969072165e-06, "loss": 0.3488, "num_tokens": 938122.0, "step": 2209 }, { "epoch": 0.7366666666666667, "grad_norm": 12.335068702697754, "learning_rate": 5.436426116838488e-06, "loss": 0.213, "num_tokens": 938692.0, "step": 2210 }, { "epoch": 0.737, "grad_norm": 12.701011657714844, "learning_rate": 5.429553264604811e-06, "loss": 0.2246, "num_tokens": 939265.0, "step": 2211 }, { "epoch": 0.7373333333333333, "grad_norm": 16.298418045043945, "learning_rate": 5.422680412371134e-06, "loss": 0.2584, "num_tokens": 939647.0, "step": 2212 }, { "epoch": 0.7376666666666667, "grad_norm": 12.31973934173584, "learning_rate": 5.415807560137457e-06, "loss": 0.1888, "num_tokens": 940199.0, "step": 2213 }, { "epoch": 0.738, "grad_norm": 20.098180770874023, "learning_rate": 5.4089347079037806e-06, "loss": 0.3739, "num_tokens": 940631.0, "step": 2214 }, { "epoch": 0.7383333333333333, "grad_norm": 14.131743431091309, "learning_rate": 5.4020618556701036e-06, "loss": 0.3745, "num_tokens": 941427.0, "step": 2215 }, { "epoch": 0.7386666666666667, "grad_norm": 16.77543067932129, "learning_rate": 5.395189003436427e-06, "loss": 0.2866, "num_tokens": 941877.0, "step": 2216 }, { "epoch": 0.739, "grad_norm": 19.388168334960938, "learning_rate": 5.38831615120275e-06, "loss": 0.3601, "num_tokens": 942376.0, "step": 2217 }, { "epoch": 0.7393333333333333, "grad_norm": 15.8837890625, "learning_rate": 5.381443298969073e-06, "loss": 0.3122, "num_tokens": 942893.0, "step": 2218 }, { "epoch": 0.7396666666666667, "grad_norm": 19.941486358642578, "learning_rate": 5.374570446735396e-06, "loss": 0.3528, "num_tokens": 943277.0, "step": 2219 }, { "epoch": 0.74, "grad_norm": 22.088035583496094, "learning_rate": 5.367697594501719e-06, "loss": 0.3309, "num_tokens": 943700.0, "step": 2220 }, { "epoch": 0.7403333333333333, "grad_norm": 19.254655838012695, "learning_rate": 5.360824742268042e-06, "loss": 0.3243, "num_tokens": 944030.0, "step": 2221 }, { "epoch": 0.7406666666666667, "grad_norm": 38.3972053527832, "learning_rate": 5.353951890034365e-06, "loss": 0.8025, "num_tokens": 944372.0, "step": 2222 }, { "epoch": 0.741, "grad_norm": 14.471336364746094, "learning_rate": 5.347079037800688e-06, "loss": 0.2258, "num_tokens": 944836.0, "step": 2223 }, { "epoch": 0.7413333333333333, "grad_norm": 17.617246627807617, "learning_rate": 5.340206185567011e-06, "loss": 0.2904, "num_tokens": 945204.0, "step": 2224 }, { "epoch": 0.7416666666666667, "grad_norm": 13.477405548095703, "learning_rate": 5.333333333333334e-06, "loss": 0.2219, "num_tokens": 945742.0, "step": 2225 }, { "epoch": 0.742, "grad_norm": 41.24494171142578, "learning_rate": 5.326460481099657e-06, "loss": 0.64, "num_tokens": 945980.0, "step": 2226 }, { "epoch": 0.7423333333333333, "grad_norm": 22.130352020263672, "learning_rate": 5.31958762886598e-06, "loss": 0.3292, "num_tokens": 946349.0, "step": 2227 }, { "epoch": 0.7426666666666667, "grad_norm": 13.331475257873535, "learning_rate": 5.312714776632303e-06, "loss": 0.2761, "num_tokens": 947201.0, "step": 2228 }, { "epoch": 0.743, "grad_norm": 9.727705001831055, "learning_rate": 5.305841924398626e-06, "loss": 0.1834, "num_tokens": 948039.0, "step": 2229 }, { "epoch": 0.7433333333333333, "grad_norm": 18.899805068969727, "learning_rate": 5.298969072164949e-06, "loss": 0.428, "num_tokens": 948453.0, "step": 2230 }, { "epoch": 0.7436666666666667, "grad_norm": 22.684471130371094, "learning_rate": 5.292096219931272e-06, "loss": 0.4243, "num_tokens": 948770.0, "step": 2231 }, { "epoch": 0.744, "grad_norm": 46.946102142333984, "learning_rate": 5.285223367697595e-06, "loss": 0.6188, "num_tokens": 949010.0, "step": 2232 }, { "epoch": 0.7443333333333333, "grad_norm": 20.318267822265625, "learning_rate": 5.278350515463918e-06, "loss": 0.3773, "num_tokens": 949333.0, "step": 2233 }, { "epoch": 0.7446666666666667, "grad_norm": 26.534412384033203, "learning_rate": 5.271477663230241e-06, "loss": 0.4239, "num_tokens": 949612.0, "step": 2234 }, { "epoch": 0.745, "grad_norm": 19.151037216186523, "learning_rate": 5.264604810996565e-06, "loss": 0.407, "num_tokens": 950055.0, "step": 2235 }, { "epoch": 0.7453333333333333, "grad_norm": 25.877643585205078, "learning_rate": 5.257731958762888e-06, "loss": 0.4525, "num_tokens": 950400.0, "step": 2236 }, { "epoch": 0.7456666666666667, "grad_norm": 15.713125228881836, "learning_rate": 5.250859106529211e-06, "loss": 0.2738, "num_tokens": 950958.0, "step": 2237 }, { "epoch": 0.746, "grad_norm": 15.301163673400879, "learning_rate": 5.243986254295534e-06, "loss": 0.2809, "num_tokens": 951450.0, "step": 2238 }, { "epoch": 0.7463333333333333, "grad_norm": 31.059038162231445, "learning_rate": 5.237113402061857e-06, "loss": 0.3964, "num_tokens": 951828.0, "step": 2239 }, { "epoch": 0.7466666666666667, "grad_norm": 29.54588508605957, "learning_rate": 5.23024054982818e-06, "loss": 0.4343, "num_tokens": 952076.0, "step": 2240 }, { "epoch": 0.747, "grad_norm": 12.323149681091309, "learning_rate": 5.223367697594503e-06, "loss": 0.1774, "num_tokens": 952602.0, "step": 2241 }, { "epoch": 0.7473333333333333, "grad_norm": 25.033960342407227, "learning_rate": 5.216494845360826e-06, "loss": 0.4002, "num_tokens": 952888.0, "step": 2242 }, { "epoch": 0.7476666666666667, "grad_norm": 12.108746528625488, "learning_rate": 5.209621993127149e-06, "loss": 0.2282, "num_tokens": 953409.0, "step": 2243 }, { "epoch": 0.748, "grad_norm": 14.28271770477295, "learning_rate": 5.202749140893472e-06, "loss": 0.2642, "num_tokens": 953887.0, "step": 2244 }, { "epoch": 0.7483333333333333, "grad_norm": 20.06631088256836, "learning_rate": 5.195876288659795e-06, "loss": 0.3116, "num_tokens": 954246.0, "step": 2245 }, { "epoch": 0.7486666666666667, "grad_norm": 19.415157318115234, "learning_rate": 5.189003436426118e-06, "loss": 0.2997, "num_tokens": 954624.0, "step": 2246 }, { "epoch": 0.749, "grad_norm": 17.895484924316406, "learning_rate": 5.182130584192441e-06, "loss": 0.2102, "num_tokens": 954993.0, "step": 2247 }, { "epoch": 0.7493333333333333, "grad_norm": 17.139867782592773, "learning_rate": 5.175257731958764e-06, "loss": 0.3144, "num_tokens": 955390.0, "step": 2248 }, { "epoch": 0.7496666666666667, "grad_norm": 21.36885643005371, "learning_rate": 5.168384879725087e-06, "loss": 0.3474, "num_tokens": 955737.0, "step": 2249 }, { "epoch": 0.75, "grad_norm": 12.001599311828613, "learning_rate": 5.16151202749141e-06, "loss": 0.2103, "num_tokens": 956353.0, "step": 2250 }, { "epoch": 0.7503333333333333, "grad_norm": 11.969560623168945, "learning_rate": 5.154639175257732e-06, "loss": 0.1591, "num_tokens": 956724.0, "step": 2251 }, { "epoch": 0.7506666666666667, "grad_norm": 25.524250030517578, "learning_rate": 5.147766323024055e-06, "loss": 0.4687, "num_tokens": 957021.0, "step": 2252 }, { "epoch": 0.751, "grad_norm": 23.48188591003418, "learning_rate": 5.140893470790378e-06, "loss": 0.4207, "num_tokens": 957414.0, "step": 2253 }, { "epoch": 0.7513333333333333, "grad_norm": 29.472505569458008, "learning_rate": 5.134020618556701e-06, "loss": 0.5038, "num_tokens": 957706.0, "step": 2254 }, { "epoch": 0.7516666666666667, "grad_norm": 33.12264633178711, "learning_rate": 5.127147766323024e-06, "loss": 0.5485, "num_tokens": 957940.0, "step": 2255 }, { "epoch": 0.752, "grad_norm": 14.95233154296875, "learning_rate": 5.120274914089347e-06, "loss": 0.2379, "num_tokens": 958496.0, "step": 2256 }, { "epoch": 0.7523333333333333, "grad_norm": 17.443632125854492, "learning_rate": 5.11340206185567e-06, "loss": 0.3788, "num_tokens": 959111.0, "step": 2257 }, { "epoch": 0.7526666666666667, "grad_norm": 32.57594299316406, "learning_rate": 5.106529209621993e-06, "loss": 0.4595, "num_tokens": 959347.0, "step": 2258 }, { "epoch": 0.753, "grad_norm": 17.155115127563477, "learning_rate": 5.099656357388316e-06, "loss": 0.2595, "num_tokens": 959739.0, "step": 2259 }, { "epoch": 0.7533333333333333, "grad_norm": 22.63399314880371, "learning_rate": 5.092783505154639e-06, "loss": 0.5604, "num_tokens": 960194.0, "step": 2260 }, { "epoch": 0.7536666666666667, "grad_norm": 22.557987213134766, "learning_rate": 5.085910652920962e-06, "loss": 0.4184, "num_tokens": 960622.0, "step": 2261 }, { "epoch": 0.754, "grad_norm": 31.361949920654297, "learning_rate": 5.079037800687285e-06, "loss": 0.531, "num_tokens": 960868.0, "step": 2262 }, { "epoch": 0.7543333333333333, "grad_norm": 23.993255615234375, "learning_rate": 5.072164948453609e-06, "loss": 0.3828, "num_tokens": 961226.0, "step": 2263 }, { "epoch": 0.7546666666666667, "grad_norm": 8.953069686889648, "learning_rate": 5.065292096219932e-06, "loss": 0.1659, "num_tokens": 961859.0, "step": 2264 }, { "epoch": 0.755, "grad_norm": 13.868692398071289, "learning_rate": 5.058419243986255e-06, "loss": 0.1994, "num_tokens": 962335.0, "step": 2265 }, { "epoch": 0.7553333333333333, "grad_norm": 18.90420150756836, "learning_rate": 5.051546391752578e-06, "loss": 0.4559, "num_tokens": 962862.0, "step": 2266 }, { "epoch": 0.7556666666666667, "grad_norm": 21.986961364746094, "learning_rate": 5.044673539518901e-06, "loss": 0.3402, "num_tokens": 963162.0, "step": 2267 }, { "epoch": 0.756, "grad_norm": 19.454605102539062, "learning_rate": 5.037800687285224e-06, "loss": 0.3669, "num_tokens": 963664.0, "step": 2268 }, { "epoch": 0.7563333333333333, "grad_norm": 19.15377426147461, "learning_rate": 5.030927835051547e-06, "loss": 0.3965, "num_tokens": 964065.0, "step": 2269 }, { "epoch": 0.7566666666666667, "grad_norm": 19.845455169677734, "learning_rate": 5.02405498281787e-06, "loss": 0.4011, "num_tokens": 964485.0, "step": 2270 }, { "epoch": 0.757, "grad_norm": 28.578535079956055, "learning_rate": 5.017182130584193e-06, "loss": 0.5557, "num_tokens": 964802.0, "step": 2271 }, { "epoch": 0.7573333333333333, "grad_norm": 15.8530855178833, "learning_rate": 5.010309278350516e-06, "loss": 0.2462, "num_tokens": 965253.0, "step": 2272 }, { "epoch": 0.7576666666666667, "grad_norm": 14.326988220214844, "learning_rate": 5.003436426116839e-06, "loss": 0.2872, "num_tokens": 965816.0, "step": 2273 }, { "epoch": 0.758, "grad_norm": 15.110243797302246, "learning_rate": 4.996563573883162e-06, "loss": 0.2337, "num_tokens": 966151.0, "step": 2274 }, { "epoch": 0.7583333333333333, "grad_norm": 27.68794822692871, "learning_rate": 4.989690721649485e-06, "loss": 0.4629, "num_tokens": 966451.0, "step": 2275 }, { "epoch": 0.7586666666666667, "grad_norm": 41.31815719604492, "learning_rate": 4.982817869415808e-06, "loss": 0.6588, "num_tokens": 966663.0, "step": 2276 }, { "epoch": 0.759, "grad_norm": 16.930652618408203, "learning_rate": 4.975945017182131e-06, "loss": 0.3023, "num_tokens": 967256.0, "step": 2277 }, { "epoch": 0.7593333333333333, "grad_norm": 19.600418090820312, "learning_rate": 4.969072164948454e-06, "loss": 0.3668, "num_tokens": 967643.0, "step": 2278 }, { "epoch": 0.7596666666666667, "grad_norm": 29.84015655517578, "learning_rate": 4.962199312714777e-06, "loss": 0.4839, "num_tokens": 967895.0, "step": 2279 }, { "epoch": 0.76, "grad_norm": 15.845081329345703, "learning_rate": 4.9553264604811e-06, "loss": 0.2759, "num_tokens": 968291.0, "step": 2280 }, { "epoch": 0.7603333333333333, "grad_norm": 18.647478103637695, "learning_rate": 4.948453608247423e-06, "loss": 0.2567, "num_tokens": 968658.0, "step": 2281 }, { "epoch": 0.7606666666666667, "grad_norm": 35.047489166259766, "learning_rate": 4.941580756013746e-06, "loss": 0.5677, "num_tokens": 968901.0, "step": 2282 }, { "epoch": 0.761, "grad_norm": 11.016942024230957, "learning_rate": 4.934707903780069e-06, "loss": 0.172, "num_tokens": 969391.0, "step": 2283 }, { "epoch": 0.7613333333333333, "grad_norm": 14.75749683380127, "learning_rate": 4.927835051546392e-06, "loss": 0.2172, "num_tokens": 969842.0, "step": 2284 }, { "epoch": 0.7616666666666667, "grad_norm": 22.755834579467773, "learning_rate": 4.920962199312715e-06, "loss": 0.4222, "num_tokens": 970148.0, "step": 2285 }, { "epoch": 0.762, "grad_norm": 27.051469802856445, "learning_rate": 4.914089347079038e-06, "loss": 0.2802, "num_tokens": 970541.0, "step": 2286 }, { "epoch": 0.7623333333333333, "grad_norm": 21.700172424316406, "learning_rate": 4.907216494845361e-06, "loss": 0.3138, "num_tokens": 970887.0, "step": 2287 }, { "epoch": 0.7626666666666667, "grad_norm": 18.065237045288086, "learning_rate": 4.900343642611684e-06, "loss": 0.4183, "num_tokens": 971293.0, "step": 2288 }, { "epoch": 0.763, "grad_norm": 19.72822380065918, "learning_rate": 4.893470790378007e-06, "loss": 0.3902, "num_tokens": 971723.0, "step": 2289 }, { "epoch": 0.7633333333333333, "grad_norm": 11.889245986938477, "learning_rate": 4.88659793814433e-06, "loss": 0.2224, "num_tokens": 972322.0, "step": 2290 }, { "epoch": 0.7636666666666667, "grad_norm": 21.804723739624023, "learning_rate": 4.879725085910653e-06, "loss": 0.3457, "num_tokens": 972794.0, "step": 2291 }, { "epoch": 0.764, "grad_norm": 24.068086624145508, "learning_rate": 4.872852233676976e-06, "loss": 0.397, "num_tokens": 973133.0, "step": 2292 }, { "epoch": 0.7643333333333333, "grad_norm": 16.103012084960938, "learning_rate": 4.865979381443299e-06, "loss": 0.4213, "num_tokens": 973866.0, "step": 2293 }, { "epoch": 0.7646666666666667, "grad_norm": 10.752691268920898, "learning_rate": 4.859106529209622e-06, "loss": 0.1644, "num_tokens": 974491.0, "step": 2294 }, { "epoch": 0.765, "grad_norm": 15.86648178100586, "learning_rate": 4.852233676975945e-06, "loss": 0.2751, "num_tokens": 974883.0, "step": 2295 }, { "epoch": 0.7653333333333333, "grad_norm": 20.02344512939453, "learning_rate": 4.845360824742268e-06, "loss": 0.3577, "num_tokens": 975294.0, "step": 2296 }, { "epoch": 0.7656666666666667, "grad_norm": 29.77374839782715, "learning_rate": 4.838487972508591e-06, "loss": 0.488, "num_tokens": 975546.0, "step": 2297 }, { "epoch": 0.766, "grad_norm": 16.297607421875, "learning_rate": 4.831615120274914e-06, "loss": 0.2857, "num_tokens": 976109.0, "step": 2298 }, { "epoch": 0.7663333333333333, "grad_norm": 34.237037658691406, "learning_rate": 4.824742268041238e-06, "loss": 0.607, "num_tokens": 976421.0, "step": 2299 }, { "epoch": 0.7666666666666667, "grad_norm": 48.620697021484375, "learning_rate": 4.817869415807561e-06, "loss": 0.7805, "num_tokens": 976613.0, "step": 2300 }, { "epoch": 0.767, "grad_norm": 17.83541488647461, "learning_rate": 4.810996563573884e-06, "loss": 0.3458, "num_tokens": 977034.0, "step": 2301 }, { "epoch": 0.7673333333333333, "grad_norm": 15.108094215393066, "learning_rate": 4.804123711340207e-06, "loss": 0.3241, "num_tokens": 977533.0, "step": 2302 }, { "epoch": 0.7676666666666667, "grad_norm": 17.289169311523438, "learning_rate": 4.79725085910653e-06, "loss": 0.3143, "num_tokens": 978065.0, "step": 2303 }, { "epoch": 0.768, "grad_norm": 28.10968589782715, "learning_rate": 4.790378006872853e-06, "loss": 0.4146, "num_tokens": 978332.0, "step": 2304 }, { "epoch": 0.7683333333333333, "grad_norm": 26.99168586730957, "learning_rate": 4.783505154639176e-06, "loss": 0.4731, "num_tokens": 978608.0, "step": 2305 }, { "epoch": 0.7686666666666667, "grad_norm": 18.180091857910156, "learning_rate": 4.776632302405499e-06, "loss": 0.2888, "num_tokens": 978973.0, "step": 2306 }, { "epoch": 0.769, "grad_norm": 14.93144702911377, "learning_rate": 4.769759450171822e-06, "loss": 0.2259, "num_tokens": 979388.0, "step": 2307 }, { "epoch": 0.7693333333333333, "grad_norm": 16.036216735839844, "learning_rate": 4.762886597938144e-06, "loss": 0.2147, "num_tokens": 979828.0, "step": 2308 }, { "epoch": 0.7696666666666667, "grad_norm": 18.776086807250977, "learning_rate": 4.756013745704467e-06, "loss": 0.3899, "num_tokens": 980329.0, "step": 2309 }, { "epoch": 0.77, "grad_norm": 11.537298202514648, "learning_rate": 4.74914089347079e-06, "loss": 0.2867, "num_tokens": 981077.0, "step": 2310 }, { "epoch": 0.7703333333333333, "grad_norm": 13.295706748962402, "learning_rate": 4.742268041237113e-06, "loss": 0.2817, "num_tokens": 981609.0, "step": 2311 }, { "epoch": 0.7706666666666667, "grad_norm": 33.52113342285156, "learning_rate": 4.735395189003436e-06, "loss": 0.487, "num_tokens": 981809.0, "step": 2312 }, { "epoch": 0.771, "grad_norm": 13.280852317810059, "learning_rate": 4.72852233676976e-06, "loss": 0.2937, "num_tokens": 982626.0, "step": 2313 }, { "epoch": 0.7713333333333333, "grad_norm": 23.171710968017578, "learning_rate": 4.721649484536083e-06, "loss": 0.3975, "num_tokens": 982894.0, "step": 2314 }, { "epoch": 0.7716666666666666, "grad_norm": 15.054698944091797, "learning_rate": 4.714776632302406e-06, "loss": 0.2618, "num_tokens": 983468.0, "step": 2315 }, { "epoch": 0.772, "grad_norm": 20.476428985595703, "learning_rate": 4.707903780068729e-06, "loss": 0.2867, "num_tokens": 983765.0, "step": 2316 }, { "epoch": 0.7723333333333333, "grad_norm": 18.400732040405273, "learning_rate": 4.701030927835052e-06, "loss": 0.3086, "num_tokens": 984393.0, "step": 2317 }, { "epoch": 0.7726666666666666, "grad_norm": 14.284549713134766, "learning_rate": 4.694158075601375e-06, "loss": 0.3103, "num_tokens": 985126.0, "step": 2318 }, { "epoch": 0.773, "grad_norm": 31.820621490478516, "learning_rate": 4.687285223367698e-06, "loss": 0.6337, "num_tokens": 985456.0, "step": 2319 }, { "epoch": 0.7733333333333333, "grad_norm": 29.61357879638672, "learning_rate": 4.680412371134021e-06, "loss": 0.574, "num_tokens": 985738.0, "step": 2320 }, { "epoch": 0.7736666666666666, "grad_norm": 21.23164939880371, "learning_rate": 4.673539518900344e-06, "loss": 0.3357, "num_tokens": 986121.0, "step": 2321 }, { "epoch": 0.774, "grad_norm": 27.779014587402344, "learning_rate": 4.666666666666667e-06, "loss": 0.6114, "num_tokens": 986578.0, "step": 2322 }, { "epoch": 0.7743333333333333, "grad_norm": 13.923828125, "learning_rate": 4.65979381443299e-06, "loss": 0.4192, "num_tokens": 987392.0, "step": 2323 }, { "epoch": 0.7746666666666666, "grad_norm": 16.890642166137695, "learning_rate": 4.652920962199313e-06, "loss": 0.4074, "num_tokens": 987951.0, "step": 2324 }, { "epoch": 0.775, "grad_norm": 9.522961616516113, "learning_rate": 4.646048109965636e-06, "loss": 0.2446, "num_tokens": 988630.0, "step": 2325 }, { "epoch": 0.7753333333333333, "grad_norm": 23.65479278564453, "learning_rate": 4.639175257731959e-06, "loss": 0.4043, "num_tokens": 989017.0, "step": 2326 }, { "epoch": 0.7756666666666666, "grad_norm": 18.302831649780273, "learning_rate": 4.632302405498282e-06, "loss": 0.4074, "num_tokens": 989448.0, "step": 2327 }, { "epoch": 0.776, "grad_norm": 10.491596221923828, "learning_rate": 4.625429553264605e-06, "loss": 0.1548, "num_tokens": 990054.0, "step": 2328 }, { "epoch": 0.7763333333333333, "grad_norm": 16.41311264038086, "learning_rate": 4.618556701030928e-06, "loss": 0.3064, "num_tokens": 990554.0, "step": 2329 }, { "epoch": 0.7766666666666666, "grad_norm": 13.637102127075195, "learning_rate": 4.611683848797251e-06, "loss": 0.2474, "num_tokens": 990944.0, "step": 2330 }, { "epoch": 0.777, "grad_norm": 13.117977142333984, "learning_rate": 4.604810996563574e-06, "loss": 0.2321, "num_tokens": 991499.0, "step": 2331 }, { "epoch": 0.7773333333333333, "grad_norm": 20.089984893798828, "learning_rate": 4.597938144329897e-06, "loss": 0.4003, "num_tokens": 991929.0, "step": 2332 }, { "epoch": 0.7776666666666666, "grad_norm": 16.305925369262695, "learning_rate": 4.59106529209622e-06, "loss": 0.3105, "num_tokens": 992319.0, "step": 2333 }, { "epoch": 0.778, "grad_norm": 23.085651397705078, "learning_rate": 4.584192439862543e-06, "loss": 0.3768, "num_tokens": 992624.0, "step": 2334 }, { "epoch": 0.7783333333333333, "grad_norm": 15.012516021728516, "learning_rate": 4.577319587628866e-06, "loss": 0.2178, "num_tokens": 993075.0, "step": 2335 }, { "epoch": 0.7786666666666666, "grad_norm": 17.62273597717285, "learning_rate": 4.570446735395189e-06, "loss": 0.2804, "num_tokens": 993487.0, "step": 2336 }, { "epoch": 0.779, "grad_norm": 17.00160026550293, "learning_rate": 4.563573883161512e-06, "loss": 0.4275, "num_tokens": 994063.0, "step": 2337 }, { "epoch": 0.7793333333333333, "grad_norm": 14.394762992858887, "learning_rate": 4.556701030927835e-06, "loss": 0.3615, "num_tokens": 994531.0, "step": 2338 }, { "epoch": 0.7796666666666666, "grad_norm": 14.625896453857422, "learning_rate": 4.549828178694158e-06, "loss": 0.2588, "num_tokens": 995149.0, "step": 2339 }, { "epoch": 0.78, "grad_norm": 19.605253219604492, "learning_rate": 4.542955326460481e-06, "loss": 0.3167, "num_tokens": 995561.0, "step": 2340 }, { "epoch": 0.7803333333333333, "grad_norm": 21.177133560180664, "learning_rate": 4.536082474226804e-06, "loss": 0.3073, "num_tokens": 995897.0, "step": 2341 }, { "epoch": 0.7806666666666666, "grad_norm": 22.60282325744629, "learning_rate": 4.529209621993127e-06, "loss": 0.4295, "num_tokens": 996246.0, "step": 2342 }, { "epoch": 0.781, "grad_norm": 24.30567741394043, "learning_rate": 4.52233676975945e-06, "loss": 0.3593, "num_tokens": 996497.0, "step": 2343 }, { "epoch": 0.7813333333333333, "grad_norm": 15.51768684387207, "learning_rate": 4.515463917525773e-06, "loss": 0.2861, "num_tokens": 997205.0, "step": 2344 }, { "epoch": 0.7816666666666666, "grad_norm": 14.245365142822266, "learning_rate": 4.508591065292096e-06, "loss": 0.2227, "num_tokens": 997678.0, "step": 2345 }, { "epoch": 0.782, "grad_norm": 15.45970630645752, "learning_rate": 4.501718213058419e-06, "loss": 0.2594, "num_tokens": 997993.0, "step": 2346 }, { "epoch": 0.7823333333333333, "grad_norm": 24.4227352142334, "learning_rate": 4.494845360824742e-06, "loss": 0.5472, "num_tokens": 998387.0, "step": 2347 }, { "epoch": 0.7826666666666666, "grad_norm": 24.21836280822754, "learning_rate": 4.487972508591066e-06, "loss": 0.3551, "num_tokens": 998739.0, "step": 2348 }, { "epoch": 0.783, "grad_norm": 14.476476669311523, "learning_rate": 4.481099656357389e-06, "loss": 0.2502, "num_tokens": 999262.0, "step": 2349 }, { "epoch": 0.7833333333333333, "grad_norm": 25.340360641479492, "learning_rate": 4.474226804123712e-06, "loss": 0.4417, "num_tokens": 999556.0, "step": 2350 }, { "epoch": 0.7836666666666666, "grad_norm": 20.190927505493164, "learning_rate": 4.467353951890035e-06, "loss": 0.4537, "num_tokens": 1000079.0, "step": 2351 }, { "epoch": 0.784, "grad_norm": 23.38610076904297, "learning_rate": 4.460481099656358e-06, "loss": 0.3327, "num_tokens": 1000456.0, "step": 2352 }, { "epoch": 0.7843333333333333, "grad_norm": 23.408164978027344, "learning_rate": 4.453608247422681e-06, "loss": 0.3926, "num_tokens": 1000736.0, "step": 2353 }, { "epoch": 0.7846666666666666, "grad_norm": 11.86369514465332, "learning_rate": 4.4467353951890034e-06, "loss": 0.2453, "num_tokens": 1001410.0, "step": 2354 }, { "epoch": 0.785, "grad_norm": 36.51177215576172, "learning_rate": 4.4398625429553264e-06, "loss": 0.629, "num_tokens": 1001739.0, "step": 2355 }, { "epoch": 0.7853333333333333, "grad_norm": 20.32553482055664, "learning_rate": 4.4329896907216494e-06, "loss": 0.3089, "num_tokens": 1002275.0, "step": 2356 }, { "epoch": 0.7856666666666666, "grad_norm": 14.233848571777344, "learning_rate": 4.4261168384879725e-06, "loss": 0.2109, "num_tokens": 1002567.0, "step": 2357 }, { "epoch": 0.786, "grad_norm": 30.573318481445312, "learning_rate": 4.4192439862542955e-06, "loss": 0.4754, "num_tokens": 1002904.0, "step": 2358 }, { "epoch": 0.7863333333333333, "grad_norm": 18.712249755859375, "learning_rate": 4.4123711340206185e-06, "loss": 0.3059, "num_tokens": 1003337.0, "step": 2359 }, { "epoch": 0.7866666666666666, "grad_norm": 31.129413604736328, "learning_rate": 4.4054982817869415e-06, "loss": 0.4995, "num_tokens": 1003573.0, "step": 2360 }, { "epoch": 0.787, "grad_norm": 20.491397857666016, "learning_rate": 4.3986254295532645e-06, "loss": 0.3593, "num_tokens": 1003906.0, "step": 2361 }, { "epoch": 0.7873333333333333, "grad_norm": 21.11905860900879, "learning_rate": 4.391752577319588e-06, "loss": 0.4163, "num_tokens": 1004356.0, "step": 2362 }, { "epoch": 0.7876666666666666, "grad_norm": 23.153539657592773, "learning_rate": 4.384879725085911e-06, "loss": 0.378, "num_tokens": 1004770.0, "step": 2363 }, { "epoch": 0.788, "grad_norm": 14.531790733337402, "learning_rate": 4.378006872852234e-06, "loss": 0.2128, "num_tokens": 1005151.0, "step": 2364 }, { "epoch": 0.7883333333333333, "grad_norm": 16.281896591186523, "learning_rate": 4.371134020618557e-06, "loss": 0.2807, "num_tokens": 1005591.0, "step": 2365 }, { "epoch": 0.7886666666666666, "grad_norm": 14.235869407653809, "learning_rate": 4.36426116838488e-06, "loss": 0.2843, "num_tokens": 1006274.0, "step": 2366 }, { "epoch": 0.789, "grad_norm": 20.813518524169922, "learning_rate": 4.357388316151203e-06, "loss": 0.4751, "num_tokens": 1006630.0, "step": 2367 }, { "epoch": 0.7893333333333333, "grad_norm": 16.513343811035156, "learning_rate": 4.350515463917526e-06, "loss": 0.2658, "num_tokens": 1007102.0, "step": 2368 }, { "epoch": 0.7896666666666666, "grad_norm": 20.516925811767578, "learning_rate": 4.343642611683849e-06, "loss": 0.3235, "num_tokens": 1007401.0, "step": 2369 }, { "epoch": 0.79, "grad_norm": 25.166702270507812, "learning_rate": 4.336769759450172e-06, "loss": 0.4716, "num_tokens": 1007725.0, "step": 2370 }, { "epoch": 0.7903333333333333, "grad_norm": 19.669422149658203, "learning_rate": 4.329896907216495e-06, "loss": 0.2803, "num_tokens": 1008141.0, "step": 2371 }, { "epoch": 0.7906666666666666, "grad_norm": 21.283130645751953, "learning_rate": 4.3230240549828184e-06, "loss": 0.4732, "num_tokens": 1008658.0, "step": 2372 }, { "epoch": 0.791, "grad_norm": 13.712873458862305, "learning_rate": 4.3161512027491414e-06, "loss": 0.2332, "num_tokens": 1009207.0, "step": 2373 }, { "epoch": 0.7913333333333333, "grad_norm": 19.32724380493164, "learning_rate": 4.3092783505154644e-06, "loss": 0.2942, "num_tokens": 1009584.0, "step": 2374 }, { "epoch": 0.7916666666666666, "grad_norm": 17.42708396911621, "learning_rate": 4.3024054982817875e-06, "loss": 0.3525, "num_tokens": 1010177.0, "step": 2375 }, { "epoch": 0.792, "grad_norm": 15.276327133178711, "learning_rate": 4.2955326460481105e-06, "loss": 0.2316, "num_tokens": 1010669.0, "step": 2376 }, { "epoch": 0.7923333333333333, "grad_norm": 22.890134811401367, "learning_rate": 4.2886597938144335e-06, "loss": 0.3846, "num_tokens": 1011028.0, "step": 2377 }, { "epoch": 0.7926666666666666, "grad_norm": 9.210111618041992, "learning_rate": 4.2817869415807565e-06, "loss": 0.1449, "num_tokens": 1011657.0, "step": 2378 }, { "epoch": 0.793, "grad_norm": 24.891151428222656, "learning_rate": 4.2749140893470795e-06, "loss": 0.368, "num_tokens": 1011932.0, "step": 2379 }, { "epoch": 0.7933333333333333, "grad_norm": 35.27296829223633, "learning_rate": 4.2680412371134025e-06, "loss": 0.5877, "num_tokens": 1012206.0, "step": 2380 }, { "epoch": 0.7936666666666666, "grad_norm": 12.280303001403809, "learning_rate": 4.2611683848797255e-06, "loss": 0.1794, "num_tokens": 1012735.0, "step": 2381 }, { "epoch": 0.794, "grad_norm": 14.5170259475708, "learning_rate": 4.2542955326460485e-06, "loss": 0.2081, "num_tokens": 1013178.0, "step": 2382 }, { "epoch": 0.7943333333333333, "grad_norm": 14.435779571533203, "learning_rate": 4.2474226804123715e-06, "loss": 0.1935, "num_tokens": 1013594.0, "step": 2383 }, { "epoch": 0.7946666666666666, "grad_norm": 21.001991271972656, "learning_rate": 4.2405498281786945e-06, "loss": 0.4343, "num_tokens": 1014003.0, "step": 2384 }, { "epoch": 0.795, "grad_norm": 12.857248306274414, "learning_rate": 4.2336769759450175e-06, "loss": 0.2, "num_tokens": 1014567.0, "step": 2385 }, { "epoch": 0.7953333333333333, "grad_norm": 16.335615158081055, "learning_rate": 4.2268041237113405e-06, "loss": 0.2465, "num_tokens": 1015070.0, "step": 2386 }, { "epoch": 0.7956666666666666, "grad_norm": 14.833600997924805, "learning_rate": 4.2199312714776636e-06, "loss": 0.177, "num_tokens": 1015491.0, "step": 2387 }, { "epoch": 0.796, "grad_norm": 28.92319679260254, "learning_rate": 4.2130584192439866e-06, "loss": 0.5712, "num_tokens": 1015790.0, "step": 2388 }, { "epoch": 0.7963333333333333, "grad_norm": 20.738210678100586, "learning_rate": 4.2061855670103096e-06, "loss": 0.2847, "num_tokens": 1016214.0, "step": 2389 }, { "epoch": 0.7966666666666666, "grad_norm": 12.899883270263672, "learning_rate": 4.199312714776633e-06, "loss": 0.2637, "num_tokens": 1016996.0, "step": 2390 }, { "epoch": 0.797, "grad_norm": 33.99029541015625, "learning_rate": 4.192439862542956e-06, "loss": 0.687, "num_tokens": 1017234.0, "step": 2391 }, { "epoch": 0.7973333333333333, "grad_norm": 25.479433059692383, "learning_rate": 4.185567010309279e-06, "loss": 0.4857, "num_tokens": 1017599.0, "step": 2392 }, { "epoch": 0.7976666666666666, "grad_norm": 23.536808013916016, "learning_rate": 4.178694158075602e-06, "loss": 0.3726, "num_tokens": 1017872.0, "step": 2393 }, { "epoch": 0.798, "grad_norm": 28.229999542236328, "learning_rate": 4.171821305841925e-06, "loss": 0.5815, "num_tokens": 1018145.0, "step": 2394 }, { "epoch": 0.7983333333333333, "grad_norm": 17.491287231445312, "learning_rate": 4.164948453608248e-06, "loss": 0.3154, "num_tokens": 1018556.0, "step": 2395 }, { "epoch": 0.7986666666666666, "grad_norm": 15.357284545898438, "learning_rate": 4.158075601374571e-06, "loss": 0.2842, "num_tokens": 1019088.0, "step": 2396 }, { "epoch": 0.799, "grad_norm": 27.92891502380371, "learning_rate": 4.151202749140894e-06, "loss": 0.4218, "num_tokens": 1019411.0, "step": 2397 }, { "epoch": 0.7993333333333333, "grad_norm": 21.88837432861328, "learning_rate": 4.1443298969072175e-06, "loss": 0.3437, "num_tokens": 1019827.0, "step": 2398 }, { "epoch": 0.7996666666666666, "grad_norm": 17.570295333862305, "learning_rate": 4.13745704467354e-06, "loss": 0.2717, "num_tokens": 1020265.0, "step": 2399 }, { "epoch": 0.8, "grad_norm": 27.389928817749023, "learning_rate": 4.130584192439863e-06, "loss": 0.6072, "num_tokens": 1020577.0, "step": 2400 }, { "epoch": 0.8003333333333333, "grad_norm": 14.382437705993652, "learning_rate": 4.123711340206186e-06, "loss": 0.2307, "num_tokens": 1021083.0, "step": 2401 }, { "epoch": 0.8006666666666666, "grad_norm": 14.143320083618164, "learning_rate": 4.116838487972509e-06, "loss": 0.2531, "num_tokens": 1021804.0, "step": 2402 }, { "epoch": 0.801, "grad_norm": 24.486730575561523, "learning_rate": 4.109965635738832e-06, "loss": 0.3402, "num_tokens": 1022083.0, "step": 2403 }, { "epoch": 0.8013333333333333, "grad_norm": 21.11311912536621, "learning_rate": 4.103092783505155e-06, "loss": 0.3345, "num_tokens": 1022452.0, "step": 2404 }, { "epoch": 0.8016666666666666, "grad_norm": 21.042848587036133, "learning_rate": 4.096219931271478e-06, "loss": 0.2611, "num_tokens": 1022774.0, "step": 2405 }, { "epoch": 0.802, "grad_norm": 14.80289077758789, "learning_rate": 4.089347079037801e-06, "loss": 0.2405, "num_tokens": 1023325.0, "step": 2406 }, { "epoch": 0.8023333333333333, "grad_norm": 19.920551300048828, "learning_rate": 4.082474226804124e-06, "loss": 0.3344, "num_tokens": 1023796.0, "step": 2407 }, { "epoch": 0.8026666666666666, "grad_norm": 30.27431297302246, "learning_rate": 4.075601374570447e-06, "loss": 0.3961, "num_tokens": 1024030.0, "step": 2408 }, { "epoch": 0.803, "grad_norm": 17.404708862304688, "learning_rate": 4.06872852233677e-06, "loss": 0.2957, "num_tokens": 1024461.0, "step": 2409 }, { "epoch": 0.8033333333333333, "grad_norm": 21.95374298095703, "learning_rate": 4.061855670103093e-06, "loss": 0.421, "num_tokens": 1024858.0, "step": 2410 }, { "epoch": 0.8036666666666666, "grad_norm": 15.620457649230957, "learning_rate": 4.054982817869416e-06, "loss": 0.267, "num_tokens": 1025252.0, "step": 2411 }, { "epoch": 0.804, "grad_norm": 22.34771728515625, "learning_rate": 4.04810996563574e-06, "loss": 0.3124, "num_tokens": 1025507.0, "step": 2412 }, { "epoch": 0.8043333333333333, "grad_norm": 15.040315628051758, "learning_rate": 4.041237113402063e-06, "loss": 0.2338, "num_tokens": 1026072.0, "step": 2413 }, { "epoch": 0.8046666666666666, "grad_norm": 24.214326858520508, "learning_rate": 4.034364261168386e-06, "loss": 0.47, "num_tokens": 1026390.0, "step": 2414 }, { "epoch": 0.805, "grad_norm": 16.86266326904297, "learning_rate": 4.027491408934709e-06, "loss": 0.248, "num_tokens": 1026806.0, "step": 2415 }, { "epoch": 0.8053333333333333, "grad_norm": 18.28307342529297, "learning_rate": 4.020618556701032e-06, "loss": 0.2034, "num_tokens": 1027274.0, "step": 2416 }, { "epoch": 0.8056666666666666, "grad_norm": 13.80357837677002, "learning_rate": 4.013745704467355e-06, "loss": 0.2512, "num_tokens": 1027894.0, "step": 2417 }, { "epoch": 0.806, "grad_norm": 13.44913387298584, "learning_rate": 4.006872852233678e-06, "loss": 0.2047, "num_tokens": 1028495.0, "step": 2418 }, { "epoch": 0.8063333333333333, "grad_norm": 23.105045318603516, "learning_rate": 4.000000000000001e-06, "loss": 0.3251, "num_tokens": 1028843.0, "step": 2419 }, { "epoch": 0.8066666666666666, "grad_norm": 11.633008003234863, "learning_rate": 3.993127147766324e-06, "loss": 0.1924, "num_tokens": 1029487.0, "step": 2420 }, { "epoch": 0.807, "grad_norm": 29.34190559387207, "learning_rate": 3.986254295532647e-06, "loss": 0.4716, "num_tokens": 1029715.0, "step": 2421 }, { "epoch": 0.8073333333333333, "grad_norm": 19.61418914794922, "learning_rate": 3.979381443298969e-06, "loss": 0.3542, "num_tokens": 1030071.0, "step": 2422 }, { "epoch": 0.8076666666666666, "grad_norm": 12.506455421447754, "learning_rate": 3.972508591065292e-06, "loss": 0.2502, "num_tokens": 1030808.0, "step": 2423 }, { "epoch": 0.808, "grad_norm": 18.260766983032227, "learning_rate": 3.965635738831615e-06, "loss": 0.3135, "num_tokens": 1031181.0, "step": 2424 }, { "epoch": 0.8083333333333333, "grad_norm": 16.55110740661621, "learning_rate": 3.958762886597938e-06, "loss": 0.344, "num_tokens": 1031708.0, "step": 2425 }, { "epoch": 0.8086666666666666, "grad_norm": 14.377882957458496, "learning_rate": 3.951890034364262e-06, "loss": 0.4033, "num_tokens": 1032496.0, "step": 2426 }, { "epoch": 0.809, "grad_norm": 16.423688888549805, "learning_rate": 3.945017182130585e-06, "loss": 0.2724, "num_tokens": 1033041.0, "step": 2427 }, { "epoch": 0.8093333333333333, "grad_norm": 13.094989776611328, "learning_rate": 3.938144329896908e-06, "loss": 0.2359, "num_tokens": 1033655.0, "step": 2428 }, { "epoch": 0.8096666666666666, "grad_norm": 17.16486358642578, "learning_rate": 3.931271477663231e-06, "loss": 0.2481, "num_tokens": 1034008.0, "step": 2429 }, { "epoch": 0.81, "grad_norm": 13.979767799377441, "learning_rate": 3.924398625429554e-06, "loss": 0.2008, "num_tokens": 1034668.0, "step": 2430 }, { "epoch": 0.8103333333333333, "grad_norm": 11.517212867736816, "learning_rate": 3.917525773195877e-06, "loss": 0.2449, "num_tokens": 1035512.0, "step": 2431 }, { "epoch": 0.8106666666666666, "grad_norm": 22.647136688232422, "learning_rate": 3.9106529209622e-06, "loss": 0.3627, "num_tokens": 1035867.0, "step": 2432 }, { "epoch": 0.811, "grad_norm": 23.055641174316406, "learning_rate": 3.903780068728523e-06, "loss": 0.3853, "num_tokens": 1036222.0, "step": 2433 }, { "epoch": 0.8113333333333334, "grad_norm": 17.502586364746094, "learning_rate": 3.896907216494846e-06, "loss": 0.3667, "num_tokens": 1036701.0, "step": 2434 }, { "epoch": 0.8116666666666666, "grad_norm": 10.719955444335938, "learning_rate": 3.890034364261169e-06, "loss": 0.2793, "num_tokens": 1037735.0, "step": 2435 }, { "epoch": 0.812, "grad_norm": 18.87636375427246, "learning_rate": 3.883161512027492e-06, "loss": 0.3185, "num_tokens": 1038163.0, "step": 2436 }, { "epoch": 0.8123333333333334, "grad_norm": 15.719067573547363, "learning_rate": 3.876288659793815e-06, "loss": 0.3207, "num_tokens": 1038848.0, "step": 2437 }, { "epoch": 0.8126666666666666, "grad_norm": 33.34862518310547, "learning_rate": 3.869415807560138e-06, "loss": 0.4865, "num_tokens": 1039137.0, "step": 2438 }, { "epoch": 0.813, "grad_norm": 22.03455352783203, "learning_rate": 3.862542955326461e-06, "loss": 0.2317, "num_tokens": 1039514.0, "step": 2439 }, { "epoch": 0.8133333333333334, "grad_norm": 29.993295669555664, "learning_rate": 3.855670103092784e-06, "loss": 0.6062, "num_tokens": 1039803.0, "step": 2440 }, { "epoch": 0.8136666666666666, "grad_norm": 21.69394302368164, "learning_rate": 3.848797250859107e-06, "loss": 0.3415, "num_tokens": 1040238.0, "step": 2441 }, { "epoch": 0.814, "grad_norm": 22.614606857299805, "learning_rate": 3.84192439862543e-06, "loss": 0.3621, "num_tokens": 1040640.0, "step": 2442 }, { "epoch": 0.8143333333333334, "grad_norm": 17.006309509277344, "learning_rate": 3.835051546391753e-06, "loss": 0.3729, "num_tokens": 1041199.0, "step": 2443 }, { "epoch": 0.8146666666666667, "grad_norm": 35.58806610107422, "learning_rate": 3.828178694158076e-06, "loss": 0.5041, "num_tokens": 1041388.0, "step": 2444 }, { "epoch": 0.815, "grad_norm": 12.483280181884766, "learning_rate": 3.821305841924399e-06, "loss": 0.1775, "num_tokens": 1041880.0, "step": 2445 }, { "epoch": 0.8153333333333334, "grad_norm": 28.994884490966797, "learning_rate": 3.814432989690722e-06, "loss": 0.4414, "num_tokens": 1042374.0, "step": 2446 }, { "epoch": 0.8156666666666667, "grad_norm": 20.81672477722168, "learning_rate": 3.807560137457045e-06, "loss": 0.3561, "num_tokens": 1042769.0, "step": 2447 }, { "epoch": 0.816, "grad_norm": 28.198726654052734, "learning_rate": 3.800687285223368e-06, "loss": 0.484, "num_tokens": 1043117.0, "step": 2448 }, { "epoch": 0.8163333333333334, "grad_norm": 16.63860511779785, "learning_rate": 3.793814432989691e-06, "loss": 0.2957, "num_tokens": 1043592.0, "step": 2449 }, { "epoch": 0.8166666666666667, "grad_norm": 15.664868354797363, "learning_rate": 3.786941580756014e-06, "loss": 0.232, "num_tokens": 1044016.0, "step": 2450 }, { "epoch": 0.817, "grad_norm": 11.156679153442383, "learning_rate": 3.780068728522337e-06, "loss": 0.2004, "num_tokens": 1044522.0, "step": 2451 }, { "epoch": 0.8173333333333334, "grad_norm": 15.13272762298584, "learning_rate": 3.77319587628866e-06, "loss": 0.2047, "num_tokens": 1045014.0, "step": 2452 }, { "epoch": 0.8176666666666667, "grad_norm": 12.899630546569824, "learning_rate": 3.766323024054983e-06, "loss": 0.2009, "num_tokens": 1045392.0, "step": 2453 }, { "epoch": 0.818, "grad_norm": 22.38412857055664, "learning_rate": 3.759450171821306e-06, "loss": 0.3689, "num_tokens": 1045723.0, "step": 2454 }, { "epoch": 0.8183333333333334, "grad_norm": 24.91786766052246, "learning_rate": 3.752577319587629e-06, "loss": 0.3558, "num_tokens": 1046100.0, "step": 2455 }, { "epoch": 0.8186666666666667, "grad_norm": 16.386259078979492, "learning_rate": 3.7457044673539524e-06, "loss": 0.2491, "num_tokens": 1046519.0, "step": 2456 }, { "epoch": 0.819, "grad_norm": 34.877235412597656, "learning_rate": 3.7388316151202754e-06, "loss": 0.7597, "num_tokens": 1046775.0, "step": 2457 }, { "epoch": 0.8193333333333334, "grad_norm": 12.640376091003418, "learning_rate": 3.7319587628865984e-06, "loss": 0.169, "num_tokens": 1047246.0, "step": 2458 }, { "epoch": 0.8196666666666667, "grad_norm": 23.800180435180664, "learning_rate": 3.7250859106529214e-06, "loss": 0.4449, "num_tokens": 1047526.0, "step": 2459 }, { "epoch": 0.82, "grad_norm": 15.863554000854492, "learning_rate": 3.7182130584192444e-06, "loss": 0.2842, "num_tokens": 1047965.0, "step": 2460 }, { "epoch": 0.8203333333333334, "grad_norm": 15.157231330871582, "learning_rate": 3.7113402061855674e-06, "loss": 0.2503, "num_tokens": 1048499.0, "step": 2461 }, { "epoch": 0.8206666666666667, "grad_norm": 21.677125930786133, "learning_rate": 3.7044673539518904e-06, "loss": 0.4164, "num_tokens": 1048910.0, "step": 2462 }, { "epoch": 0.821, "grad_norm": 11.679230690002441, "learning_rate": 3.6975945017182135e-06, "loss": 0.1949, "num_tokens": 1049425.0, "step": 2463 }, { "epoch": 0.8213333333333334, "grad_norm": 11.712294578552246, "learning_rate": 3.6907216494845365e-06, "loss": 0.2753, "num_tokens": 1050287.0, "step": 2464 }, { "epoch": 0.8216666666666667, "grad_norm": 13.269620895385742, "learning_rate": 3.6838487972508595e-06, "loss": 0.2187, "num_tokens": 1050870.0, "step": 2465 }, { "epoch": 0.822, "grad_norm": 13.62315559387207, "learning_rate": 3.6769759450171825e-06, "loss": 0.2386, "num_tokens": 1051641.0, "step": 2466 }, { "epoch": 0.8223333333333334, "grad_norm": 15.054625511169434, "learning_rate": 3.670103092783505e-06, "loss": 0.2647, "num_tokens": 1052061.0, "step": 2467 }, { "epoch": 0.8226666666666667, "grad_norm": 29.49413299560547, "learning_rate": 3.663230240549828e-06, "loss": 0.4883, "num_tokens": 1052317.0, "step": 2468 }, { "epoch": 0.823, "grad_norm": 17.938968658447266, "learning_rate": 3.656357388316151e-06, "loss": 0.3322, "num_tokens": 1052635.0, "step": 2469 }, { "epoch": 0.8233333333333334, "grad_norm": 17.269304275512695, "learning_rate": 3.6494845360824745e-06, "loss": 0.3665, "num_tokens": 1053074.0, "step": 2470 }, { "epoch": 0.8236666666666667, "grad_norm": 26.378686904907227, "learning_rate": 3.6426116838487975e-06, "loss": 0.3647, "num_tokens": 1053320.0, "step": 2471 }, { "epoch": 0.824, "grad_norm": 13.280948638916016, "learning_rate": 3.6357388316151205e-06, "loss": 0.2044, "num_tokens": 1053793.0, "step": 2472 }, { "epoch": 0.8243333333333334, "grad_norm": 12.697530746459961, "learning_rate": 3.6288659793814435e-06, "loss": 0.2112, "num_tokens": 1054295.0, "step": 2473 }, { "epoch": 0.8246666666666667, "grad_norm": 17.75676918029785, "learning_rate": 3.6219931271477665e-06, "loss": 0.3009, "num_tokens": 1054750.0, "step": 2474 }, { "epoch": 0.825, "grad_norm": 20.199562072753906, "learning_rate": 3.6151202749140896e-06, "loss": 0.3004, "num_tokens": 1055048.0, "step": 2475 }, { "epoch": 0.8253333333333334, "grad_norm": 10.051739692687988, "learning_rate": 3.6082474226804126e-06, "loss": 0.1896, "num_tokens": 1055576.0, "step": 2476 }, { "epoch": 0.8256666666666667, "grad_norm": 17.398969650268555, "learning_rate": 3.6013745704467356e-06, "loss": 0.3147, "num_tokens": 1056066.0, "step": 2477 }, { "epoch": 0.826, "grad_norm": 24.836912155151367, "learning_rate": 3.5945017182130586e-06, "loss": 0.3675, "num_tokens": 1056387.0, "step": 2478 }, { "epoch": 0.8263333333333334, "grad_norm": 19.545726776123047, "learning_rate": 3.5876288659793816e-06, "loss": 0.3846, "num_tokens": 1056813.0, "step": 2479 }, { "epoch": 0.8266666666666667, "grad_norm": 12.31005859375, "learning_rate": 3.5807560137457046e-06, "loss": 0.1825, "num_tokens": 1057326.0, "step": 2480 }, { "epoch": 0.827, "grad_norm": 15.96369743347168, "learning_rate": 3.573883161512028e-06, "loss": 0.2146, "num_tokens": 1057771.0, "step": 2481 }, { "epoch": 0.8273333333333334, "grad_norm": 13.465150833129883, "learning_rate": 3.567010309278351e-06, "loss": 0.1747, "num_tokens": 1058216.0, "step": 2482 }, { "epoch": 0.8276666666666667, "grad_norm": 20.383832931518555, "learning_rate": 3.560137457044674e-06, "loss": 0.355, "num_tokens": 1058612.0, "step": 2483 }, { "epoch": 0.828, "grad_norm": 33.661006927490234, "learning_rate": 3.553264604810997e-06, "loss": 0.5061, "num_tokens": 1058821.0, "step": 2484 }, { "epoch": 0.8283333333333334, "grad_norm": 11.334056854248047, "learning_rate": 3.54639175257732e-06, "loss": 0.1867, "num_tokens": 1059528.0, "step": 2485 }, { "epoch": 0.8286666666666667, "grad_norm": 16.120201110839844, "learning_rate": 3.539518900343643e-06, "loss": 0.3162, "num_tokens": 1060039.0, "step": 2486 }, { "epoch": 0.829, "grad_norm": 23.46731185913086, "learning_rate": 3.532646048109966e-06, "loss": 0.3477, "num_tokens": 1060368.0, "step": 2487 }, { "epoch": 0.8293333333333334, "grad_norm": 9.588083267211914, "learning_rate": 3.525773195876289e-06, "loss": 0.1447, "num_tokens": 1061036.0, "step": 2488 }, { "epoch": 0.8296666666666667, "grad_norm": 22.525115966796875, "learning_rate": 3.518900343642612e-06, "loss": 0.3906, "num_tokens": 1061375.0, "step": 2489 }, { "epoch": 0.83, "grad_norm": 29.895776748657227, "learning_rate": 3.5120274914089347e-06, "loss": 0.3744, "num_tokens": 1061576.0, "step": 2490 }, { "epoch": 0.8303333333333334, "grad_norm": 14.790183067321777, "learning_rate": 3.5051546391752577e-06, "loss": 0.2841, "num_tokens": 1062186.0, "step": 2491 }, { "epoch": 0.8306666666666667, "grad_norm": 9.061755180358887, "learning_rate": 3.4982817869415807e-06, "loss": 0.1201, "num_tokens": 1062719.0, "step": 2492 }, { "epoch": 0.831, "grad_norm": 16.936819076538086, "learning_rate": 3.4914089347079037e-06, "loss": 0.2834, "num_tokens": 1063064.0, "step": 2493 }, { "epoch": 0.8313333333333334, "grad_norm": 29.251859664916992, "learning_rate": 3.4845360824742267e-06, "loss": 0.3537, "num_tokens": 1063470.0, "step": 2494 }, { "epoch": 0.8316666666666667, "grad_norm": 13.46192455291748, "learning_rate": 3.47766323024055e-06, "loss": 0.1891, "num_tokens": 1063963.0, "step": 2495 }, { "epoch": 0.832, "grad_norm": 28.12009048461914, "learning_rate": 3.470790378006873e-06, "loss": 0.4516, "num_tokens": 1064236.0, "step": 2496 }, { "epoch": 0.8323333333333334, "grad_norm": 16.94349479675293, "learning_rate": 3.463917525773196e-06, "loss": 0.3315, "num_tokens": 1064622.0, "step": 2497 }, { "epoch": 0.8326666666666667, "grad_norm": 18.930124282836914, "learning_rate": 3.457044673539519e-06, "loss": 0.282, "num_tokens": 1064889.0, "step": 2498 }, { "epoch": 0.833, "grad_norm": 21.822826385498047, "learning_rate": 3.450171821305842e-06, "loss": 0.4736, "num_tokens": 1065384.0, "step": 2499 }, { "epoch": 0.8333333333333334, "grad_norm": 18.451799392700195, "learning_rate": 3.443298969072165e-06, "loss": 0.2773, "num_tokens": 1065826.0, "step": 2500 }, { "epoch": 0.8336666666666667, "grad_norm": 30.071786880493164, "learning_rate": 3.436426116838488e-06, "loss": 0.4892, "num_tokens": 1066316.0, "step": 2501 }, { "epoch": 0.834, "grad_norm": 24.67599868774414, "learning_rate": 3.429553264604811e-06, "loss": 0.435, "num_tokens": 1066688.0, "step": 2502 }, { "epoch": 0.8343333333333334, "grad_norm": 20.148223876953125, "learning_rate": 3.4226804123711342e-06, "loss": 0.365, "num_tokens": 1067125.0, "step": 2503 }, { "epoch": 0.8346666666666667, "grad_norm": 23.093935012817383, "learning_rate": 3.4158075601374572e-06, "loss": 0.5614, "num_tokens": 1067526.0, "step": 2504 }, { "epoch": 0.835, "grad_norm": 13.425149917602539, "learning_rate": 3.4089347079037807e-06, "loss": 0.2073, "num_tokens": 1068054.0, "step": 2505 }, { "epoch": 0.8353333333333334, "grad_norm": 23.383304595947266, "learning_rate": 3.4020618556701037e-06, "loss": 0.4288, "num_tokens": 1068342.0, "step": 2506 }, { "epoch": 0.8356666666666667, "grad_norm": 26.32157325744629, "learning_rate": 3.3951890034364267e-06, "loss": 0.3824, "num_tokens": 1068579.0, "step": 2507 }, { "epoch": 0.836, "grad_norm": 18.664186477661133, "learning_rate": 3.3883161512027497e-06, "loss": 0.2369, "num_tokens": 1068890.0, "step": 2508 }, { "epoch": 0.8363333333333334, "grad_norm": 43.528541564941406, "learning_rate": 3.3814432989690727e-06, "loss": 0.5566, "num_tokens": 1069067.0, "step": 2509 }, { "epoch": 0.8366666666666667, "grad_norm": 34.03465270996094, "learning_rate": 3.3745704467353957e-06, "loss": 0.4514, "num_tokens": 1069305.0, "step": 2510 }, { "epoch": 0.837, "grad_norm": 14.468720436096191, "learning_rate": 3.3676975945017187e-06, "loss": 0.2803, "num_tokens": 1069871.0, "step": 2511 }, { "epoch": 0.8373333333333334, "grad_norm": 18.361831665039062, "learning_rate": 3.3608247422680417e-06, "loss": 0.2805, "num_tokens": 1070234.0, "step": 2512 }, { "epoch": 0.8376666666666667, "grad_norm": 25.05373191833496, "learning_rate": 3.3539518900343643e-06, "loss": 0.4362, "num_tokens": 1070543.0, "step": 2513 }, { "epoch": 0.838, "grad_norm": 27.9414119720459, "learning_rate": 3.3470790378006873e-06, "loss": 0.346, "num_tokens": 1070725.0, "step": 2514 }, { "epoch": 0.8383333333333334, "grad_norm": 31.086339950561523, "learning_rate": 3.3402061855670103e-06, "loss": 0.4588, "num_tokens": 1071008.0, "step": 2515 }, { "epoch": 0.8386666666666667, "grad_norm": 26.37689781188965, "learning_rate": 3.3333333333333333e-06, "loss": 0.392, "num_tokens": 1071341.0, "step": 2516 }, { "epoch": 0.839, "grad_norm": 29.72268295288086, "learning_rate": 3.3264604810996563e-06, "loss": 0.5608, "num_tokens": 1071628.0, "step": 2517 }, { "epoch": 0.8393333333333334, "grad_norm": 10.89013385772705, "learning_rate": 3.3195876288659793e-06, "loss": 0.1815, "num_tokens": 1072322.0, "step": 2518 }, { "epoch": 0.8396666666666667, "grad_norm": 32.06898498535156, "learning_rate": 3.3127147766323028e-06, "loss": 0.4848, "num_tokens": 1072545.0, "step": 2519 }, { "epoch": 0.84, "grad_norm": 23.498455047607422, "learning_rate": 3.3058419243986258e-06, "loss": 0.3878, "num_tokens": 1072876.0, "step": 2520 }, { "epoch": 0.8403333333333334, "grad_norm": 17.156299591064453, "learning_rate": 3.298969072164949e-06, "loss": 0.3022, "num_tokens": 1073299.0, "step": 2521 }, { "epoch": 0.8406666666666667, "grad_norm": 20.267723083496094, "learning_rate": 3.292096219931272e-06, "loss": 0.2514, "num_tokens": 1073657.0, "step": 2522 }, { "epoch": 0.841, "grad_norm": 18.20011329650879, "learning_rate": 3.285223367697595e-06, "loss": 0.3631, "num_tokens": 1074000.0, "step": 2523 }, { "epoch": 0.8413333333333334, "grad_norm": 13.25314998626709, "learning_rate": 3.278350515463918e-06, "loss": 0.2387, "num_tokens": 1074619.0, "step": 2524 }, { "epoch": 0.8416666666666667, "grad_norm": 24.30069351196289, "learning_rate": 3.271477663230241e-06, "loss": 0.3796, "num_tokens": 1074968.0, "step": 2525 }, { "epoch": 0.842, "grad_norm": 14.936105728149414, "learning_rate": 3.264604810996564e-06, "loss": 0.261, "num_tokens": 1075541.0, "step": 2526 }, { "epoch": 0.8423333333333334, "grad_norm": 20.608903884887695, "learning_rate": 3.257731958762887e-06, "loss": 0.3665, "num_tokens": 1075864.0, "step": 2527 }, { "epoch": 0.8426666666666667, "grad_norm": 20.040517807006836, "learning_rate": 3.25085910652921e-06, "loss": 0.3191, "num_tokens": 1076262.0, "step": 2528 }, { "epoch": 0.843, "grad_norm": 18.906795501708984, "learning_rate": 3.243986254295533e-06, "loss": 0.281, "num_tokens": 1076710.0, "step": 2529 }, { "epoch": 0.8433333333333334, "grad_norm": 27.35143280029297, "learning_rate": 3.2371134020618563e-06, "loss": 0.4573, "num_tokens": 1077167.0, "step": 2530 }, { "epoch": 0.8436666666666667, "grad_norm": 30.86393928527832, "learning_rate": 3.2302405498281793e-06, "loss": 0.5219, "num_tokens": 1077533.0, "step": 2531 }, { "epoch": 0.844, "grad_norm": 18.800418853759766, "learning_rate": 3.2233676975945023e-06, "loss": 0.3166, "num_tokens": 1077914.0, "step": 2532 }, { "epoch": 0.8443333333333334, "grad_norm": 13.97164249420166, "learning_rate": 3.2164948453608253e-06, "loss": 0.2208, "num_tokens": 1078380.0, "step": 2533 }, { "epoch": 0.8446666666666667, "grad_norm": 22.61063003540039, "learning_rate": 3.2096219931271483e-06, "loss": 0.3761, "num_tokens": 1078699.0, "step": 2534 }, { "epoch": 0.845, "grad_norm": 44.868045806884766, "learning_rate": 3.202749140893471e-06, "loss": 0.5858, "num_tokens": 1078949.0, "step": 2535 }, { "epoch": 0.8453333333333334, "grad_norm": 14.711064338684082, "learning_rate": 3.195876288659794e-06, "loss": 0.2253, "num_tokens": 1079320.0, "step": 2536 }, { "epoch": 0.8456666666666667, "grad_norm": 12.000082015991211, "learning_rate": 3.189003436426117e-06, "loss": 0.2114, "num_tokens": 1080151.0, "step": 2537 }, { "epoch": 0.846, "grad_norm": 26.157875061035156, "learning_rate": 3.18213058419244e-06, "loss": 0.4503, "num_tokens": 1080541.0, "step": 2538 }, { "epoch": 0.8463333333333334, "grad_norm": 13.337353706359863, "learning_rate": 3.175257731958763e-06, "loss": 0.2217, "num_tokens": 1081034.0, "step": 2539 }, { "epoch": 0.8466666666666667, "grad_norm": 13.549495697021484, "learning_rate": 3.168384879725086e-06, "loss": 0.2158, "num_tokens": 1081743.0, "step": 2540 }, { "epoch": 0.847, "grad_norm": 23.245662689208984, "learning_rate": 3.161512027491409e-06, "loss": 0.4086, "num_tokens": 1082148.0, "step": 2541 }, { "epoch": 0.8473333333333334, "grad_norm": 20.97616195678711, "learning_rate": 3.154639175257732e-06, "loss": 0.31, "num_tokens": 1082526.0, "step": 2542 }, { "epoch": 0.8476666666666667, "grad_norm": 26.155908584594727, "learning_rate": 3.147766323024055e-06, "loss": 0.5325, "num_tokens": 1082960.0, "step": 2543 }, { "epoch": 0.848, "grad_norm": 16.790037155151367, "learning_rate": 3.1408934707903784e-06, "loss": 0.2357, "num_tokens": 1083473.0, "step": 2544 }, { "epoch": 0.8483333333333334, "grad_norm": 17.814451217651367, "learning_rate": 3.1340206185567014e-06, "loss": 0.3113, "num_tokens": 1083932.0, "step": 2545 }, { "epoch": 0.8486666666666667, "grad_norm": 26.8931941986084, "learning_rate": 3.1271477663230244e-06, "loss": 0.3079, "num_tokens": 1084156.0, "step": 2546 }, { "epoch": 0.849, "grad_norm": 20.83824920654297, "learning_rate": 3.1202749140893474e-06, "loss": 0.356, "num_tokens": 1084591.0, "step": 2547 }, { "epoch": 0.8493333333333334, "grad_norm": 16.599573135375977, "learning_rate": 3.1134020618556704e-06, "loss": 0.2574, "num_tokens": 1085023.0, "step": 2548 }, { "epoch": 0.8496666666666667, "grad_norm": 23.18788719177246, "learning_rate": 3.1065292096219934e-06, "loss": 0.3704, "num_tokens": 1085378.0, "step": 2549 }, { "epoch": 0.85, "grad_norm": 13.118997573852539, "learning_rate": 3.0996563573883165e-06, "loss": 0.1949, "num_tokens": 1085928.0, "step": 2550 }, { "epoch": 0.8503333333333334, "grad_norm": 19.196090698242188, "learning_rate": 3.0927835051546395e-06, "loss": 0.3088, "num_tokens": 1086325.0, "step": 2551 }, { "epoch": 0.8506666666666667, "grad_norm": 23.283233642578125, "learning_rate": 3.0859106529209625e-06, "loss": 0.3698, "num_tokens": 1086693.0, "step": 2552 }, { "epoch": 0.851, "grad_norm": 42.4521369934082, "learning_rate": 3.0790378006872855e-06, "loss": 0.7578, "num_tokens": 1086914.0, "step": 2553 }, { "epoch": 0.8513333333333334, "grad_norm": 20.431804656982422, "learning_rate": 3.0721649484536085e-06, "loss": 0.4059, "num_tokens": 1087304.0, "step": 2554 }, { "epoch": 0.8516666666666667, "grad_norm": 21.84584617614746, "learning_rate": 3.065292096219932e-06, "loss": 0.4939, "num_tokens": 1087699.0, "step": 2555 }, { "epoch": 0.852, "grad_norm": 30.311681747436523, "learning_rate": 3.058419243986255e-06, "loss": 0.5834, "num_tokens": 1087994.0, "step": 2556 }, { "epoch": 0.8523333333333334, "grad_norm": 12.077468872070312, "learning_rate": 3.051546391752578e-06, "loss": 0.1702, "num_tokens": 1088584.0, "step": 2557 }, { "epoch": 0.8526666666666667, "grad_norm": 19.324726104736328, "learning_rate": 3.0446735395189005e-06, "loss": 0.2172, "num_tokens": 1089049.0, "step": 2558 }, { "epoch": 0.853, "grad_norm": 23.768978118896484, "learning_rate": 3.0378006872852235e-06, "loss": 0.3635, "num_tokens": 1089448.0, "step": 2559 }, { "epoch": 0.8533333333333334, "grad_norm": 17.217287063598633, "learning_rate": 3.0309278350515465e-06, "loss": 0.2801, "num_tokens": 1089838.0, "step": 2560 }, { "epoch": 0.8536666666666667, "grad_norm": 16.12363052368164, "learning_rate": 3.0240549828178695e-06, "loss": 0.2593, "num_tokens": 1090405.0, "step": 2561 }, { "epoch": 0.854, "grad_norm": 24.360151290893555, "learning_rate": 3.0171821305841926e-06, "loss": 0.342, "num_tokens": 1090727.0, "step": 2562 }, { "epoch": 0.8543333333333333, "grad_norm": 21.64339828491211, "learning_rate": 3.0103092783505156e-06, "loss": 0.3608, "num_tokens": 1091104.0, "step": 2563 }, { "epoch": 0.8546666666666667, "grad_norm": 29.89468765258789, "learning_rate": 3.0034364261168386e-06, "loss": 0.6216, "num_tokens": 1091330.0, "step": 2564 }, { "epoch": 0.855, "grad_norm": 16.435911178588867, "learning_rate": 2.9965635738831616e-06, "loss": 0.2513, "num_tokens": 1092008.0, "step": 2565 }, { "epoch": 0.8553333333333333, "grad_norm": 29.75682258605957, "learning_rate": 2.9896907216494846e-06, "loss": 0.3629, "num_tokens": 1092350.0, "step": 2566 }, { "epoch": 0.8556666666666667, "grad_norm": 18.779422760009766, "learning_rate": 2.9828178694158076e-06, "loss": 0.3575, "num_tokens": 1092868.0, "step": 2567 }, { "epoch": 0.856, "grad_norm": 15.735803604125977, "learning_rate": 2.9759450171821306e-06, "loss": 0.2887, "num_tokens": 1093374.0, "step": 2568 }, { "epoch": 0.8563333333333333, "grad_norm": 8.634358406066895, "learning_rate": 2.969072164948454e-06, "loss": 0.1166, "num_tokens": 1094082.0, "step": 2569 }, { "epoch": 0.8566666666666667, "grad_norm": 16.737316131591797, "learning_rate": 2.962199312714777e-06, "loss": 0.3261, "num_tokens": 1094611.0, "step": 2570 }, { "epoch": 0.857, "grad_norm": 25.818227767944336, "learning_rate": 2.9553264604811e-06, "loss": 0.531, "num_tokens": 1094926.0, "step": 2571 }, { "epoch": 0.8573333333333333, "grad_norm": 61.7738151550293, "learning_rate": 2.948453608247423e-06, "loss": 0.532, "num_tokens": 1095267.0, "step": 2572 }, { "epoch": 0.8576666666666667, "grad_norm": 14.94664192199707, "learning_rate": 2.941580756013746e-06, "loss": 0.2637, "num_tokens": 1095657.0, "step": 2573 }, { "epoch": 0.858, "grad_norm": 14.795976638793945, "learning_rate": 2.934707903780069e-06, "loss": 0.2111, "num_tokens": 1096046.0, "step": 2574 }, { "epoch": 0.8583333333333333, "grad_norm": 13.528295516967773, "learning_rate": 2.927835051546392e-06, "loss": 0.2637, "num_tokens": 1096783.0, "step": 2575 }, { "epoch": 0.8586666666666667, "grad_norm": 27.03551483154297, "learning_rate": 2.920962199312715e-06, "loss": 0.4651, "num_tokens": 1097034.0, "step": 2576 }, { "epoch": 0.859, "grad_norm": 14.43877124786377, "learning_rate": 2.914089347079038e-06, "loss": 0.2226, "num_tokens": 1097561.0, "step": 2577 }, { "epoch": 0.8593333333333333, "grad_norm": 19.07650375366211, "learning_rate": 2.907216494845361e-06, "loss": 0.3401, "num_tokens": 1097998.0, "step": 2578 }, { "epoch": 0.8596666666666667, "grad_norm": 19.199495315551758, "learning_rate": 2.900343642611684e-06, "loss": 0.2723, "num_tokens": 1098345.0, "step": 2579 }, { "epoch": 0.86, "grad_norm": 12.887055397033691, "learning_rate": 2.8934707903780076e-06, "loss": 0.1849, "num_tokens": 1098904.0, "step": 2580 }, { "epoch": 0.8603333333333333, "grad_norm": 24.430805206298828, "learning_rate": 2.8865979381443297e-06, "loss": 0.3883, "num_tokens": 1099218.0, "step": 2581 }, { "epoch": 0.8606666666666667, "grad_norm": 13.97574234008789, "learning_rate": 2.8797250859106527e-06, "loss": 0.2659, "num_tokens": 1099598.0, "step": 2582 }, { "epoch": 0.861, "grad_norm": 17.56862449645996, "learning_rate": 2.872852233676976e-06, "loss": 0.3996, "num_tokens": 1100001.0, "step": 2583 }, { "epoch": 0.8613333333333333, "grad_norm": 11.76144790649414, "learning_rate": 2.865979381443299e-06, "loss": 0.1933, "num_tokens": 1100536.0, "step": 2584 }, { "epoch": 0.8616666666666667, "grad_norm": 12.55566692352295, "learning_rate": 2.859106529209622e-06, "loss": 0.2148, "num_tokens": 1100944.0, "step": 2585 }, { "epoch": 0.862, "grad_norm": 19.295270919799805, "learning_rate": 2.852233676975945e-06, "loss": 0.3116, "num_tokens": 1101297.0, "step": 2586 }, { "epoch": 0.8623333333333333, "grad_norm": 22.419282913208008, "learning_rate": 2.845360824742268e-06, "loss": 0.3427, "num_tokens": 1101645.0, "step": 2587 }, { "epoch": 0.8626666666666667, "grad_norm": 16.15792465209961, "learning_rate": 2.838487972508591e-06, "loss": 0.2476, "num_tokens": 1102041.0, "step": 2588 }, { "epoch": 0.863, "grad_norm": 27.76045036315918, "learning_rate": 2.831615120274914e-06, "loss": 0.3942, "num_tokens": 1102432.0, "step": 2589 }, { "epoch": 0.8633333333333333, "grad_norm": 26.183975219726562, "learning_rate": 2.8247422680412372e-06, "loss": 0.4028, "num_tokens": 1102717.0, "step": 2590 }, { "epoch": 0.8636666666666667, "grad_norm": 13.375823974609375, "learning_rate": 2.8178694158075602e-06, "loss": 0.21, "num_tokens": 1103329.0, "step": 2591 }, { "epoch": 0.864, "grad_norm": 14.306855201721191, "learning_rate": 2.8109965635738832e-06, "loss": 0.2849, "num_tokens": 1103809.0, "step": 2592 }, { "epoch": 0.8643333333333333, "grad_norm": 17.68777084350586, "learning_rate": 2.8041237113402062e-06, "loss": 0.3228, "num_tokens": 1104207.0, "step": 2593 }, { "epoch": 0.8646666666666667, "grad_norm": 17.483196258544922, "learning_rate": 2.7972508591065297e-06, "loss": 0.276, "num_tokens": 1104808.0, "step": 2594 }, { "epoch": 0.865, "grad_norm": 21.972518920898438, "learning_rate": 2.7903780068728527e-06, "loss": 0.3924, "num_tokens": 1105135.0, "step": 2595 }, { "epoch": 0.8653333333333333, "grad_norm": 23.83920669555664, "learning_rate": 2.7835051546391757e-06, "loss": 0.4132, "num_tokens": 1105474.0, "step": 2596 }, { "epoch": 0.8656666666666667, "grad_norm": 17.173587799072266, "learning_rate": 2.7766323024054987e-06, "loss": 0.2774, "num_tokens": 1105881.0, "step": 2597 }, { "epoch": 0.866, "grad_norm": 17.44150161743164, "learning_rate": 2.7697594501718217e-06, "loss": 0.2168, "num_tokens": 1106219.0, "step": 2598 }, { "epoch": 0.8663333333333333, "grad_norm": 32.34910202026367, "learning_rate": 2.7628865979381447e-06, "loss": 0.7245, "num_tokens": 1106568.0, "step": 2599 }, { "epoch": 0.8666666666666667, "grad_norm": 11.376323699951172, "learning_rate": 2.7560137457044677e-06, "loss": 0.2053, "num_tokens": 1107330.0, "step": 2600 }, { "epoch": 0.867, "grad_norm": 38.56230545043945, "learning_rate": 2.7491408934707907e-06, "loss": 0.8847, "num_tokens": 1107572.0, "step": 2601 }, { "epoch": 0.8673333333333333, "grad_norm": 20.261680603027344, "learning_rate": 2.7422680412371137e-06, "loss": 0.4465, "num_tokens": 1107974.0, "step": 2602 }, { "epoch": 0.8676666666666667, "grad_norm": 16.08854103088379, "learning_rate": 2.7353951890034367e-06, "loss": 0.3407, "num_tokens": 1108472.0, "step": 2603 }, { "epoch": 0.868, "grad_norm": 24.39761734008789, "learning_rate": 2.7285223367697593e-06, "loss": 0.3805, "num_tokens": 1108777.0, "step": 2604 }, { "epoch": 0.8683333333333333, "grad_norm": 17.013826370239258, "learning_rate": 2.7216494845360823e-06, "loss": 0.2678, "num_tokens": 1109146.0, "step": 2605 }, { "epoch": 0.8686666666666667, "grad_norm": 14.553666114807129, "learning_rate": 2.7147766323024053e-06, "loss": 0.2527, "num_tokens": 1109713.0, "step": 2606 }, { "epoch": 0.869, "grad_norm": 35.898319244384766, "learning_rate": 2.7079037800687284e-06, "loss": 0.7073, "num_tokens": 1110049.0, "step": 2607 }, { "epoch": 0.8693333333333333, "grad_norm": 20.321985244750977, "learning_rate": 2.7010309278350518e-06, "loss": 0.2868, "num_tokens": 1110438.0, "step": 2608 }, { "epoch": 0.8696666666666667, "grad_norm": 16.032669067382812, "learning_rate": 2.694158075601375e-06, "loss": 0.3214, "num_tokens": 1110877.0, "step": 2609 }, { "epoch": 0.87, "grad_norm": 20.098161697387695, "learning_rate": 2.687285223367698e-06, "loss": 0.2868, "num_tokens": 1111165.0, "step": 2610 }, { "epoch": 0.8703333333333333, "grad_norm": 25.293737411499023, "learning_rate": 2.680412371134021e-06, "loss": 0.4346, "num_tokens": 1111447.0, "step": 2611 }, { "epoch": 0.8706666666666667, "grad_norm": 23.713485717773438, "learning_rate": 2.673539518900344e-06, "loss": 0.339, "num_tokens": 1111713.0, "step": 2612 }, { "epoch": 0.871, "grad_norm": 15.190940856933594, "learning_rate": 2.666666666666667e-06, "loss": 0.2146, "num_tokens": 1112127.0, "step": 2613 }, { "epoch": 0.8713333333333333, "grad_norm": 16.493757247924805, "learning_rate": 2.65979381443299e-06, "loss": 0.3347, "num_tokens": 1112646.0, "step": 2614 }, { "epoch": 0.8716666666666667, "grad_norm": 23.547101974487305, "learning_rate": 2.652920962199313e-06, "loss": 0.3968, "num_tokens": 1112978.0, "step": 2615 }, { "epoch": 0.872, "grad_norm": 18.284706115722656, "learning_rate": 2.646048109965636e-06, "loss": 0.2733, "num_tokens": 1113326.0, "step": 2616 }, { "epoch": 0.8723333333333333, "grad_norm": 29.10738754272461, "learning_rate": 2.639175257731959e-06, "loss": 0.5416, "num_tokens": 1113669.0, "step": 2617 }, { "epoch": 0.8726666666666667, "grad_norm": 22.63997459411621, "learning_rate": 2.6323024054982823e-06, "loss": 0.3794, "num_tokens": 1114039.0, "step": 2618 }, { "epoch": 0.873, "grad_norm": 18.456018447875977, "learning_rate": 2.6254295532646053e-06, "loss": 0.287, "num_tokens": 1114481.0, "step": 2619 }, { "epoch": 0.8733333333333333, "grad_norm": 15.56072998046875, "learning_rate": 2.6185567010309283e-06, "loss": 0.238, "num_tokens": 1115024.0, "step": 2620 }, { "epoch": 0.8736666666666667, "grad_norm": 21.878814697265625, "learning_rate": 2.6116838487972513e-06, "loss": 0.3891, "num_tokens": 1115408.0, "step": 2621 }, { "epoch": 0.874, "grad_norm": 17.757680892944336, "learning_rate": 2.6048109965635743e-06, "loss": 0.2884, "num_tokens": 1115904.0, "step": 2622 }, { "epoch": 0.8743333333333333, "grad_norm": 20.67007064819336, "learning_rate": 2.5979381443298973e-06, "loss": 0.4064, "num_tokens": 1116328.0, "step": 2623 }, { "epoch": 0.8746666666666667, "grad_norm": 14.284910202026367, "learning_rate": 2.5910652920962203e-06, "loss": 0.2766, "num_tokens": 1116919.0, "step": 2624 }, { "epoch": 0.875, "grad_norm": 14.246922492980957, "learning_rate": 2.5841924398625434e-06, "loss": 0.249, "num_tokens": 1117504.0, "step": 2625 }, { "epoch": 0.8753333333333333, "grad_norm": 22.20802879333496, "learning_rate": 2.577319587628866e-06, "loss": 0.3342, "num_tokens": 1117771.0, "step": 2626 }, { "epoch": 0.8756666666666667, "grad_norm": 28.59857177734375, "learning_rate": 2.570446735395189e-06, "loss": 0.5397, "num_tokens": 1118166.0, "step": 2627 }, { "epoch": 0.876, "grad_norm": 12.709672927856445, "learning_rate": 2.563573883161512e-06, "loss": 0.2051, "num_tokens": 1118670.0, "step": 2628 }, { "epoch": 0.8763333333333333, "grad_norm": 22.509122848510742, "learning_rate": 2.556701030927835e-06, "loss": 0.3627, "num_tokens": 1119031.0, "step": 2629 }, { "epoch": 0.8766666666666667, "grad_norm": 15.944034576416016, "learning_rate": 2.549828178694158e-06, "loss": 0.2248, "num_tokens": 1119473.0, "step": 2630 }, { "epoch": 0.877, "grad_norm": 25.441009521484375, "learning_rate": 2.542955326460481e-06, "loss": 0.4558, "num_tokens": 1119827.0, "step": 2631 }, { "epoch": 0.8773333333333333, "grad_norm": 17.579322814941406, "learning_rate": 2.5360824742268044e-06, "loss": 0.2709, "num_tokens": 1120338.0, "step": 2632 }, { "epoch": 0.8776666666666667, "grad_norm": 17.62100601196289, "learning_rate": 2.5292096219931274e-06, "loss": 0.2723, "num_tokens": 1120760.0, "step": 2633 }, { "epoch": 0.878, "grad_norm": 23.150907516479492, "learning_rate": 2.5223367697594504e-06, "loss": 0.4196, "num_tokens": 1121287.0, "step": 2634 }, { "epoch": 0.8783333333333333, "grad_norm": 19.693754196166992, "learning_rate": 2.5154639175257734e-06, "loss": 0.3048, "num_tokens": 1121611.0, "step": 2635 }, { "epoch": 0.8786666666666667, "grad_norm": 12.296672821044922, "learning_rate": 2.5085910652920964e-06, "loss": 0.2051, "num_tokens": 1122205.0, "step": 2636 }, { "epoch": 0.879, "grad_norm": 18.046634674072266, "learning_rate": 2.5017182130584195e-06, "loss": 0.3107, "num_tokens": 1122604.0, "step": 2637 }, { "epoch": 0.8793333333333333, "grad_norm": 14.211587905883789, "learning_rate": 2.4948453608247425e-06, "loss": 0.2187, "num_tokens": 1123037.0, "step": 2638 }, { "epoch": 0.8796666666666667, "grad_norm": 17.89979362487793, "learning_rate": 2.4879725085910655e-06, "loss": 0.3015, "num_tokens": 1123510.0, "step": 2639 }, { "epoch": 0.88, "grad_norm": 11.908567428588867, "learning_rate": 2.4810996563573885e-06, "loss": 0.2196, "num_tokens": 1124057.0, "step": 2640 }, { "epoch": 0.8803333333333333, "grad_norm": 20.304771423339844, "learning_rate": 2.4742268041237115e-06, "loss": 0.4753, "num_tokens": 1124636.0, "step": 2641 }, { "epoch": 0.8806666666666667, "grad_norm": 30.181413650512695, "learning_rate": 2.4673539518900345e-06, "loss": 0.6384, "num_tokens": 1124949.0, "step": 2642 }, { "epoch": 0.881, "grad_norm": 18.809181213378906, "learning_rate": 2.4604810996563575e-06, "loss": 0.3566, "num_tokens": 1125304.0, "step": 2643 }, { "epoch": 0.8813333333333333, "grad_norm": 18.18524932861328, "learning_rate": 2.4536082474226805e-06, "loss": 0.4246, "num_tokens": 1125735.0, "step": 2644 }, { "epoch": 0.8816666666666667, "grad_norm": 16.499597549438477, "learning_rate": 2.4467353951890035e-06, "loss": 0.2558, "num_tokens": 1126110.0, "step": 2645 }, { "epoch": 0.882, "grad_norm": 20.552982330322266, "learning_rate": 2.4398625429553265e-06, "loss": 0.3717, "num_tokens": 1126623.0, "step": 2646 }, { "epoch": 0.8823333333333333, "grad_norm": 16.257610321044922, "learning_rate": 2.4329896907216495e-06, "loss": 0.2981, "num_tokens": 1127146.0, "step": 2647 }, { "epoch": 0.8826666666666667, "grad_norm": 23.37925148010254, "learning_rate": 2.4261168384879725e-06, "loss": 0.3837, "num_tokens": 1127528.0, "step": 2648 }, { "epoch": 0.883, "grad_norm": 17.785457611083984, "learning_rate": 2.4192439862542956e-06, "loss": 0.3193, "num_tokens": 1127946.0, "step": 2649 }, { "epoch": 0.8833333333333333, "grad_norm": 16.97532081604004, "learning_rate": 2.412371134020619e-06, "loss": 0.2658, "num_tokens": 1128456.0, "step": 2650 }, { "epoch": 0.8836666666666667, "grad_norm": 17.295560836791992, "learning_rate": 2.405498281786942e-06, "loss": 0.2772, "num_tokens": 1128912.0, "step": 2651 }, { "epoch": 0.884, "grad_norm": 27.50554847717285, "learning_rate": 2.398625429553265e-06, "loss": 0.5552, "num_tokens": 1129216.0, "step": 2652 }, { "epoch": 0.8843333333333333, "grad_norm": 14.283690452575684, "learning_rate": 2.391752577319588e-06, "loss": 0.2047, "num_tokens": 1129816.0, "step": 2653 }, { "epoch": 0.8846666666666667, "grad_norm": 17.199249267578125, "learning_rate": 2.384879725085911e-06, "loss": 0.3389, "num_tokens": 1130305.0, "step": 2654 }, { "epoch": 0.885, "grad_norm": 18.971454620361328, "learning_rate": 2.3780068728522336e-06, "loss": 0.3031, "num_tokens": 1130649.0, "step": 2655 }, { "epoch": 0.8853333333333333, "grad_norm": 15.171945571899414, "learning_rate": 2.3711340206185566e-06, "loss": 0.2498, "num_tokens": 1131058.0, "step": 2656 }, { "epoch": 0.8856666666666667, "grad_norm": 19.996112823486328, "learning_rate": 2.36426116838488e-06, "loss": 0.2502, "num_tokens": 1131455.0, "step": 2657 }, { "epoch": 0.886, "grad_norm": 16.38463020324707, "learning_rate": 2.357388316151203e-06, "loss": 0.2739, "num_tokens": 1131949.0, "step": 2658 }, { "epoch": 0.8863333333333333, "grad_norm": 16.54492950439453, "learning_rate": 2.350515463917526e-06, "loss": 0.3133, "num_tokens": 1132429.0, "step": 2659 }, { "epoch": 0.8866666666666667, "grad_norm": 19.130403518676758, "learning_rate": 2.343642611683849e-06, "loss": 0.3285, "num_tokens": 1133092.0, "step": 2660 }, { "epoch": 0.887, "grad_norm": 24.571012496948242, "learning_rate": 2.336769759450172e-06, "loss": 0.4887, "num_tokens": 1133495.0, "step": 2661 }, { "epoch": 0.8873333333333333, "grad_norm": 26.68309211730957, "learning_rate": 2.329896907216495e-06, "loss": 0.3877, "num_tokens": 1133773.0, "step": 2662 }, { "epoch": 0.8876666666666667, "grad_norm": 11.291244506835938, "learning_rate": 2.323024054982818e-06, "loss": 0.1409, "num_tokens": 1134133.0, "step": 2663 }, { "epoch": 0.888, "grad_norm": 26.650270462036133, "learning_rate": 2.316151202749141e-06, "loss": 0.336, "num_tokens": 1134408.0, "step": 2664 }, { "epoch": 0.8883333333333333, "grad_norm": 23.780580520629883, "learning_rate": 2.309278350515464e-06, "loss": 0.5098, "num_tokens": 1134814.0, "step": 2665 }, { "epoch": 0.8886666666666667, "grad_norm": 30.70811653137207, "learning_rate": 2.302405498281787e-06, "loss": 0.5844, "num_tokens": 1135152.0, "step": 2666 }, { "epoch": 0.889, "grad_norm": 20.162235260009766, "learning_rate": 2.29553264604811e-06, "loss": 0.4821, "num_tokens": 1135661.0, "step": 2667 }, { "epoch": 0.8893333333333333, "grad_norm": 14.01124382019043, "learning_rate": 2.288659793814433e-06, "loss": 0.2401, "num_tokens": 1136207.0, "step": 2668 }, { "epoch": 0.8896666666666667, "grad_norm": 25.73712730407715, "learning_rate": 2.281786941580756e-06, "loss": 0.5939, "num_tokens": 1136575.0, "step": 2669 }, { "epoch": 0.89, "grad_norm": 15.558550834655762, "learning_rate": 2.274914089347079e-06, "loss": 0.2355, "num_tokens": 1136998.0, "step": 2670 }, { "epoch": 0.8903333333333333, "grad_norm": 10.84465503692627, "learning_rate": 2.268041237113402e-06, "loss": 0.165, "num_tokens": 1137674.0, "step": 2671 }, { "epoch": 0.8906666666666667, "grad_norm": 10.619647979736328, "learning_rate": 2.261168384879725e-06, "loss": 0.1675, "num_tokens": 1138310.0, "step": 2672 }, { "epoch": 0.891, "grad_norm": 23.241519927978516, "learning_rate": 2.254295532646048e-06, "loss": 0.4218, "num_tokens": 1138706.0, "step": 2673 }, { "epoch": 0.8913333333333333, "grad_norm": 23.254505157470703, "learning_rate": 2.247422680412371e-06, "loss": 0.4107, "num_tokens": 1139178.0, "step": 2674 }, { "epoch": 0.8916666666666667, "grad_norm": 20.643016815185547, "learning_rate": 2.2405498281786946e-06, "loss": 0.3866, "num_tokens": 1139609.0, "step": 2675 }, { "epoch": 0.892, "grad_norm": 11.879471778869629, "learning_rate": 2.2336769759450176e-06, "loss": 0.2178, "num_tokens": 1140476.0, "step": 2676 }, { "epoch": 0.8923333333333333, "grad_norm": 18.957048416137695, "learning_rate": 2.2268041237113406e-06, "loss": 0.3683, "num_tokens": 1141012.0, "step": 2677 }, { "epoch": 0.8926666666666667, "grad_norm": 11.961352348327637, "learning_rate": 2.2199312714776632e-06, "loss": 0.1682, "num_tokens": 1141376.0, "step": 2678 }, { "epoch": 0.893, "grad_norm": 23.58404541015625, "learning_rate": 2.2130584192439862e-06, "loss": 0.5366, "num_tokens": 1141824.0, "step": 2679 }, { "epoch": 0.8933333333333333, "grad_norm": 18.372447967529297, "learning_rate": 2.2061855670103092e-06, "loss": 0.4629, "num_tokens": 1142365.0, "step": 2680 }, { "epoch": 0.8936666666666667, "grad_norm": 29.805395126342773, "learning_rate": 2.1993127147766322e-06, "loss": 0.5322, "num_tokens": 1142690.0, "step": 2681 }, { "epoch": 0.894, "grad_norm": 12.278711318969727, "learning_rate": 2.1924398625429557e-06, "loss": 0.1665, "num_tokens": 1143132.0, "step": 2682 }, { "epoch": 0.8943333333333333, "grad_norm": 13.837822914123535, "learning_rate": 2.1855670103092787e-06, "loss": 0.3046, "num_tokens": 1143706.0, "step": 2683 }, { "epoch": 0.8946666666666667, "grad_norm": 16.852859497070312, "learning_rate": 2.1786941580756017e-06, "loss": 0.298, "num_tokens": 1144213.0, "step": 2684 }, { "epoch": 0.895, "grad_norm": 23.393728256225586, "learning_rate": 2.1718213058419247e-06, "loss": 0.2805, "num_tokens": 1144696.0, "step": 2685 }, { "epoch": 0.8953333333333333, "grad_norm": 17.307254791259766, "learning_rate": 2.1649484536082477e-06, "loss": 0.2584, "num_tokens": 1145248.0, "step": 2686 }, { "epoch": 0.8956666666666667, "grad_norm": 14.748942375183105, "learning_rate": 2.1580756013745707e-06, "loss": 0.2089, "num_tokens": 1145693.0, "step": 2687 }, { "epoch": 0.896, "grad_norm": 20.542560577392578, "learning_rate": 2.1512027491408937e-06, "loss": 0.3579, "num_tokens": 1146069.0, "step": 2688 }, { "epoch": 0.8963333333333333, "grad_norm": 17.55741310119629, "learning_rate": 2.1443298969072167e-06, "loss": 0.3159, "num_tokens": 1146865.0, "step": 2689 }, { "epoch": 0.8966666666666666, "grad_norm": 24.0822696685791, "learning_rate": 2.1374570446735397e-06, "loss": 0.416, "num_tokens": 1147153.0, "step": 2690 }, { "epoch": 0.897, "grad_norm": 24.48341941833496, "learning_rate": 2.1305841924398628e-06, "loss": 0.3999, "num_tokens": 1147467.0, "step": 2691 }, { "epoch": 0.8973333333333333, "grad_norm": 26.188201904296875, "learning_rate": 2.1237113402061858e-06, "loss": 0.4134, "num_tokens": 1147716.0, "step": 2692 }, { "epoch": 0.8976666666666666, "grad_norm": 30.151432037353516, "learning_rate": 2.1168384879725088e-06, "loss": 0.4819, "num_tokens": 1147976.0, "step": 2693 }, { "epoch": 0.898, "grad_norm": 17.410934448242188, "learning_rate": 2.1099656357388318e-06, "loss": 0.3658, "num_tokens": 1148465.0, "step": 2694 }, { "epoch": 0.8983333333333333, "grad_norm": 25.241716384887695, "learning_rate": 2.1030927835051548e-06, "loss": 0.3803, "num_tokens": 1148814.0, "step": 2695 }, { "epoch": 0.8986666666666666, "grad_norm": 43.32484436035156, "learning_rate": 2.096219931271478e-06, "loss": 0.6438, "num_tokens": 1149064.0, "step": 2696 }, { "epoch": 0.899, "grad_norm": 11.447908401489258, "learning_rate": 2.089347079037801e-06, "loss": 0.2101, "num_tokens": 1149650.0, "step": 2697 }, { "epoch": 0.8993333333333333, "grad_norm": 18.495502471923828, "learning_rate": 2.082474226804124e-06, "loss": 0.2308, "num_tokens": 1150087.0, "step": 2698 }, { "epoch": 0.8996666666666666, "grad_norm": 18.68160629272461, "learning_rate": 2.075601374570447e-06, "loss": 0.3307, "num_tokens": 1150517.0, "step": 2699 }, { "epoch": 0.9, "grad_norm": 21.001033782958984, "learning_rate": 2.06872852233677e-06, "loss": 0.3666, "num_tokens": 1150987.0, "step": 2700 }, { "epoch": 0.9003333333333333, "grad_norm": 17.173063278198242, "learning_rate": 2.061855670103093e-06, "loss": 0.272, "num_tokens": 1151427.0, "step": 2701 }, { "epoch": 0.9006666666666666, "grad_norm": 13.32605266571045, "learning_rate": 2.054982817869416e-06, "loss": 0.2265, "num_tokens": 1151896.0, "step": 2702 }, { "epoch": 0.901, "grad_norm": 21.790590286254883, "learning_rate": 2.048109965635739e-06, "loss": 0.4039, "num_tokens": 1152233.0, "step": 2703 }, { "epoch": 0.9013333333333333, "grad_norm": 19.262897491455078, "learning_rate": 2.041237113402062e-06, "loss": 0.2413, "num_tokens": 1152540.0, "step": 2704 }, { "epoch": 0.9016666666666666, "grad_norm": 16.255998611450195, "learning_rate": 2.034364261168385e-06, "loss": 0.2612, "num_tokens": 1153074.0, "step": 2705 }, { "epoch": 0.902, "grad_norm": 22.00145149230957, "learning_rate": 2.027491408934708e-06, "loss": 0.3976, "num_tokens": 1153389.0, "step": 2706 }, { "epoch": 0.9023333333333333, "grad_norm": 25.981700897216797, "learning_rate": 2.0206185567010313e-06, "loss": 0.5259, "num_tokens": 1153761.0, "step": 2707 }, { "epoch": 0.9026666666666666, "grad_norm": 27.417585372924805, "learning_rate": 2.0137457044673543e-06, "loss": 0.5074, "num_tokens": 1154074.0, "step": 2708 }, { "epoch": 0.903, "grad_norm": 21.643583297729492, "learning_rate": 2.0068728522336773e-06, "loss": 0.3851, "num_tokens": 1154502.0, "step": 2709 }, { "epoch": 0.9033333333333333, "grad_norm": 30.976497650146484, "learning_rate": 2.0000000000000003e-06, "loss": 0.4374, "num_tokens": 1154819.0, "step": 2710 }, { "epoch": 0.9036666666666666, "grad_norm": 15.914011001586914, "learning_rate": 1.9931271477663233e-06, "loss": 0.2533, "num_tokens": 1155174.0, "step": 2711 }, { "epoch": 0.904, "grad_norm": 20.935306549072266, "learning_rate": 1.986254295532646e-06, "loss": 0.5045, "num_tokens": 1155673.0, "step": 2712 }, { "epoch": 0.9043333333333333, "grad_norm": 36.347076416015625, "learning_rate": 1.979381443298969e-06, "loss": 0.6768, "num_tokens": 1155916.0, "step": 2713 }, { "epoch": 0.9046666666666666, "grad_norm": 13.315597534179688, "learning_rate": 1.9725085910652924e-06, "loss": 0.2186, "num_tokens": 1156457.0, "step": 2714 }, { "epoch": 0.905, "grad_norm": 25.001535415649414, "learning_rate": 1.9656357388316154e-06, "loss": 0.5765, "num_tokens": 1156934.0, "step": 2715 }, { "epoch": 0.9053333333333333, "grad_norm": 21.156627655029297, "learning_rate": 1.9587628865979384e-06, "loss": 0.3891, "num_tokens": 1157344.0, "step": 2716 }, { "epoch": 0.9056666666666666, "grad_norm": 26.95836639404297, "learning_rate": 1.9518900343642614e-06, "loss": 0.4558, "num_tokens": 1157686.0, "step": 2717 }, { "epoch": 0.906, "grad_norm": 15.25243854522705, "learning_rate": 1.9450171821305844e-06, "loss": 0.4462, "num_tokens": 1158510.0, "step": 2718 }, { "epoch": 0.9063333333333333, "grad_norm": 36.926116943359375, "learning_rate": 1.9381443298969074e-06, "loss": 0.7138, "num_tokens": 1158833.0, "step": 2719 }, { "epoch": 0.9066666666666666, "grad_norm": 12.303214073181152, "learning_rate": 1.9312714776632304e-06, "loss": 0.2628, "num_tokens": 1159422.0, "step": 2720 }, { "epoch": 0.907, "grad_norm": 22.125396728515625, "learning_rate": 1.9243986254295534e-06, "loss": 0.2468, "num_tokens": 1159845.0, "step": 2721 }, { "epoch": 0.9073333333333333, "grad_norm": 29.187349319458008, "learning_rate": 1.9175257731958764e-06, "loss": 0.549, "num_tokens": 1160160.0, "step": 2722 }, { "epoch": 0.9076666666666666, "grad_norm": 14.531944274902344, "learning_rate": 1.9106529209621994e-06, "loss": 0.2573, "num_tokens": 1160715.0, "step": 2723 }, { "epoch": 0.908, "grad_norm": 24.53174591064453, "learning_rate": 1.9037800687285225e-06, "loss": 0.357, "num_tokens": 1160993.0, "step": 2724 }, { "epoch": 0.9083333333333333, "grad_norm": 17.915462493896484, "learning_rate": 1.8969072164948455e-06, "loss": 0.3302, "num_tokens": 1161443.0, "step": 2725 }, { "epoch": 0.9086666666666666, "grad_norm": 19.17743682861328, "learning_rate": 1.8900343642611685e-06, "loss": 0.3023, "num_tokens": 1161912.0, "step": 2726 }, { "epoch": 0.909, "grad_norm": 18.81557273864746, "learning_rate": 1.8831615120274915e-06, "loss": 0.4102, "num_tokens": 1162472.0, "step": 2727 }, { "epoch": 0.9093333333333333, "grad_norm": 15.204906463623047, "learning_rate": 1.8762886597938145e-06, "loss": 0.2253, "num_tokens": 1162747.0, "step": 2728 }, { "epoch": 0.9096666666666666, "grad_norm": 9.056118965148926, "learning_rate": 1.8694158075601377e-06, "loss": 0.1713, "num_tokens": 1163632.0, "step": 2729 }, { "epoch": 0.91, "grad_norm": 27.887147903442383, "learning_rate": 1.8625429553264607e-06, "loss": 0.434, "num_tokens": 1163955.0, "step": 2730 }, { "epoch": 0.9103333333333333, "grad_norm": 18.549562454223633, "learning_rate": 1.8556701030927837e-06, "loss": 0.3179, "num_tokens": 1164419.0, "step": 2731 }, { "epoch": 0.9106666666666666, "grad_norm": 38.43928909301758, "learning_rate": 1.8487972508591067e-06, "loss": 0.7053, "num_tokens": 1164642.0, "step": 2732 }, { "epoch": 0.911, "grad_norm": 20.190895080566406, "learning_rate": 1.8419243986254297e-06, "loss": 0.5518, "num_tokens": 1165164.0, "step": 2733 }, { "epoch": 0.9113333333333333, "grad_norm": 20.16877555847168, "learning_rate": 1.8350515463917525e-06, "loss": 0.232, "num_tokens": 1165516.0, "step": 2734 }, { "epoch": 0.9116666666666666, "grad_norm": 13.08216667175293, "learning_rate": 1.8281786941580755e-06, "loss": 0.2315, "num_tokens": 1166088.0, "step": 2735 }, { "epoch": 0.912, "grad_norm": 13.765453338623047, "learning_rate": 1.8213058419243988e-06, "loss": 0.2361, "num_tokens": 1166844.0, "step": 2736 }, { "epoch": 0.9123333333333333, "grad_norm": 12.908111572265625, "learning_rate": 1.8144329896907218e-06, "loss": 0.2202, "num_tokens": 1167241.0, "step": 2737 }, { "epoch": 0.9126666666666666, "grad_norm": 24.169925689697266, "learning_rate": 1.8075601374570448e-06, "loss": 0.4934, "num_tokens": 1167563.0, "step": 2738 }, { "epoch": 0.913, "grad_norm": 28.54415512084961, "learning_rate": 1.8006872852233678e-06, "loss": 0.3857, "num_tokens": 1167771.0, "step": 2739 }, { "epoch": 0.9133333333333333, "grad_norm": 8.911702156066895, "learning_rate": 1.7938144329896908e-06, "loss": 0.1133, "num_tokens": 1168483.0, "step": 2740 }, { "epoch": 0.9136666666666666, "grad_norm": 22.1441593170166, "learning_rate": 1.786941580756014e-06, "loss": 0.3372, "num_tokens": 1168860.0, "step": 2741 }, { "epoch": 0.914, "grad_norm": 20.894214630126953, "learning_rate": 1.780068728522337e-06, "loss": 0.4834, "num_tokens": 1169370.0, "step": 2742 }, { "epoch": 0.9143333333333333, "grad_norm": 14.744845390319824, "learning_rate": 1.77319587628866e-06, "loss": 0.2725, "num_tokens": 1169911.0, "step": 2743 }, { "epoch": 0.9146666666666666, "grad_norm": 12.813164710998535, "learning_rate": 1.766323024054983e-06, "loss": 0.2112, "num_tokens": 1170436.0, "step": 2744 }, { "epoch": 0.915, "grad_norm": 15.071550369262695, "learning_rate": 1.759450171821306e-06, "loss": 0.3116, "num_tokens": 1170903.0, "step": 2745 }, { "epoch": 0.9153333333333333, "grad_norm": 24.834426879882812, "learning_rate": 1.7525773195876288e-06, "loss": 0.4362, "num_tokens": 1171283.0, "step": 2746 }, { "epoch": 0.9156666666666666, "grad_norm": 36.800209045410156, "learning_rate": 1.7457044673539519e-06, "loss": 0.606, "num_tokens": 1171474.0, "step": 2747 }, { "epoch": 0.916, "grad_norm": 18.337873458862305, "learning_rate": 1.738831615120275e-06, "loss": 0.3528, "num_tokens": 1171814.0, "step": 2748 }, { "epoch": 0.9163333333333333, "grad_norm": 17.330036163330078, "learning_rate": 1.731958762886598e-06, "loss": 0.3008, "num_tokens": 1172676.0, "step": 2749 }, { "epoch": 0.9166666666666666, "grad_norm": 14.75840950012207, "learning_rate": 1.725085910652921e-06, "loss": 0.23, "num_tokens": 1173223.0, "step": 2750 }, { "epoch": 0.917, "grad_norm": 19.336124420166016, "learning_rate": 1.718213058419244e-06, "loss": 0.4402, "num_tokens": 1173733.0, "step": 2751 }, { "epoch": 0.9173333333333333, "grad_norm": 11.115795135498047, "learning_rate": 1.7113402061855671e-06, "loss": 0.1925, "num_tokens": 1174395.0, "step": 2752 }, { "epoch": 0.9176666666666666, "grad_norm": 16.1851806640625, "learning_rate": 1.7044673539518903e-06, "loss": 0.2433, "num_tokens": 1174808.0, "step": 2753 }, { "epoch": 0.918, "grad_norm": 22.90441131591797, "learning_rate": 1.6975945017182133e-06, "loss": 0.4071, "num_tokens": 1175267.0, "step": 2754 }, { "epoch": 0.9183333333333333, "grad_norm": 16.42786407470703, "learning_rate": 1.6907216494845363e-06, "loss": 0.2374, "num_tokens": 1175774.0, "step": 2755 }, { "epoch": 0.9186666666666666, "grad_norm": 22.648691177368164, "learning_rate": 1.6838487972508594e-06, "loss": 0.3315, "num_tokens": 1176064.0, "step": 2756 }, { "epoch": 0.919, "grad_norm": 19.161935806274414, "learning_rate": 1.6769759450171821e-06, "loss": 0.2986, "num_tokens": 1176488.0, "step": 2757 }, { "epoch": 0.9193333333333333, "grad_norm": 16.655405044555664, "learning_rate": 1.6701030927835052e-06, "loss": 0.261, "num_tokens": 1176865.0, "step": 2758 }, { "epoch": 0.9196666666666666, "grad_norm": 17.666271209716797, "learning_rate": 1.6632302405498282e-06, "loss": 0.2771, "num_tokens": 1177237.0, "step": 2759 }, { "epoch": 0.92, "grad_norm": 20.679241180419922, "learning_rate": 1.6563573883161514e-06, "loss": 0.3192, "num_tokens": 1177594.0, "step": 2760 }, { "epoch": 0.9203333333333333, "grad_norm": 15.442680358886719, "learning_rate": 1.6494845360824744e-06, "loss": 0.3365, "num_tokens": 1178108.0, "step": 2761 }, { "epoch": 0.9206666666666666, "grad_norm": 16.987192153930664, "learning_rate": 1.6426116838487974e-06, "loss": 0.2201, "num_tokens": 1178480.0, "step": 2762 }, { "epoch": 0.921, "grad_norm": 22.2786922454834, "learning_rate": 1.6357388316151204e-06, "loss": 0.4094, "num_tokens": 1178849.0, "step": 2763 }, { "epoch": 0.9213333333333333, "grad_norm": 20.164323806762695, "learning_rate": 1.6288659793814434e-06, "loss": 0.3124, "num_tokens": 1179295.0, "step": 2764 }, { "epoch": 0.9216666666666666, "grad_norm": 53.069400787353516, "learning_rate": 1.6219931271477664e-06, "loss": 0.5679, "num_tokens": 1179474.0, "step": 2765 }, { "epoch": 0.922, "grad_norm": 9.759431838989258, "learning_rate": 1.6151202749140896e-06, "loss": 0.2128, "num_tokens": 1180193.0, "step": 2766 }, { "epoch": 0.9223333333333333, "grad_norm": 17.29784393310547, "learning_rate": 1.6082474226804127e-06, "loss": 0.2632, "num_tokens": 1180642.0, "step": 2767 }, { "epoch": 0.9226666666666666, "grad_norm": 11.764988899230957, "learning_rate": 1.6013745704467355e-06, "loss": 0.1876, "num_tokens": 1181449.0, "step": 2768 }, { "epoch": 0.923, "grad_norm": 11.106544494628906, "learning_rate": 1.5945017182130585e-06, "loss": 0.199, "num_tokens": 1182330.0, "step": 2769 }, { "epoch": 0.9233333333333333, "grad_norm": 24.814998626708984, "learning_rate": 1.5876288659793815e-06, "loss": 0.4309, "num_tokens": 1182683.0, "step": 2770 }, { "epoch": 0.9236666666666666, "grad_norm": 16.705718994140625, "learning_rate": 1.5807560137457045e-06, "loss": 0.3043, "num_tokens": 1183024.0, "step": 2771 }, { "epoch": 0.924, "grad_norm": 16.59432029724121, "learning_rate": 1.5738831615120275e-06, "loss": 0.2639, "num_tokens": 1183527.0, "step": 2772 }, { "epoch": 0.9243333333333333, "grad_norm": 15.538214683532715, "learning_rate": 1.5670103092783507e-06, "loss": 0.2728, "num_tokens": 1183864.0, "step": 2773 }, { "epoch": 0.9246666666666666, "grad_norm": 17.873220443725586, "learning_rate": 1.5601374570446737e-06, "loss": 0.279, "num_tokens": 1184298.0, "step": 2774 }, { "epoch": 0.925, "grad_norm": 33.63453674316406, "learning_rate": 1.5532646048109967e-06, "loss": 0.5072, "num_tokens": 1184530.0, "step": 2775 }, { "epoch": 0.9253333333333333, "grad_norm": 9.463963508605957, "learning_rate": 1.5463917525773197e-06, "loss": 0.15, "num_tokens": 1185228.0, "step": 2776 }, { "epoch": 0.9256666666666666, "grad_norm": 34.70844650268555, "learning_rate": 1.5395189003436427e-06, "loss": 0.55, "num_tokens": 1185464.0, "step": 2777 }, { "epoch": 0.926, "grad_norm": 24.818832397460938, "learning_rate": 1.532646048109966e-06, "loss": 0.5329, "num_tokens": 1185845.0, "step": 2778 }, { "epoch": 0.9263333333333333, "grad_norm": 35.96976852416992, "learning_rate": 1.525773195876289e-06, "loss": 0.7482, "num_tokens": 1186065.0, "step": 2779 }, { "epoch": 0.9266666666666666, "grad_norm": 11.187234878540039, "learning_rate": 1.5189003436426118e-06, "loss": 0.2098, "num_tokens": 1186826.0, "step": 2780 }, { "epoch": 0.927, "grad_norm": 20.268693923950195, "learning_rate": 1.5120274914089348e-06, "loss": 0.3444, "num_tokens": 1187292.0, "step": 2781 }, { "epoch": 0.9273333333333333, "grad_norm": 14.612253189086914, "learning_rate": 1.5051546391752578e-06, "loss": 0.2251, "num_tokens": 1187766.0, "step": 2782 }, { "epoch": 0.9276666666666666, "grad_norm": 15.963537216186523, "learning_rate": 1.4982817869415808e-06, "loss": 0.1878, "num_tokens": 1188246.0, "step": 2783 }, { "epoch": 0.928, "grad_norm": 20.04001808166504, "learning_rate": 1.4914089347079038e-06, "loss": 0.478, "num_tokens": 1188699.0, "step": 2784 }, { "epoch": 0.9283333333333333, "grad_norm": 23.99854850769043, "learning_rate": 1.484536082474227e-06, "loss": 0.6602, "num_tokens": 1189268.0, "step": 2785 }, { "epoch": 0.9286666666666666, "grad_norm": 30.21177864074707, "learning_rate": 1.47766323024055e-06, "loss": 0.4402, "num_tokens": 1189485.0, "step": 2786 }, { "epoch": 0.929, "grad_norm": 17.51218032836914, "learning_rate": 1.470790378006873e-06, "loss": 0.3557, "num_tokens": 1190073.0, "step": 2787 }, { "epoch": 0.9293333333333333, "grad_norm": 30.070619583129883, "learning_rate": 1.463917525773196e-06, "loss": 0.5641, "num_tokens": 1190401.0, "step": 2788 }, { "epoch": 0.9296666666666666, "grad_norm": 12.422327995300293, "learning_rate": 1.457044673539519e-06, "loss": 0.222, "num_tokens": 1191211.0, "step": 2789 }, { "epoch": 0.93, "grad_norm": 15.444951057434082, "learning_rate": 1.450171821305842e-06, "loss": 0.2508, "num_tokens": 1191631.0, "step": 2790 }, { "epoch": 0.9303333333333333, "grad_norm": 24.11281967163086, "learning_rate": 1.4432989690721649e-06, "loss": 0.5044, "num_tokens": 1191956.0, "step": 2791 }, { "epoch": 0.9306666666666666, "grad_norm": 12.031312942504883, "learning_rate": 1.436426116838488e-06, "loss": 0.2044, "num_tokens": 1192679.0, "step": 2792 }, { "epoch": 0.931, "grad_norm": 14.59493637084961, "learning_rate": 1.429553264604811e-06, "loss": 0.219, "num_tokens": 1193101.0, "step": 2793 }, { "epoch": 0.9313333333333333, "grad_norm": 12.454179763793945, "learning_rate": 1.422680412371134e-06, "loss": 0.2128, "num_tokens": 1193624.0, "step": 2794 }, { "epoch": 0.9316666666666666, "grad_norm": 20.135393142700195, "learning_rate": 1.415807560137457e-06, "loss": 0.3198, "num_tokens": 1193976.0, "step": 2795 }, { "epoch": 0.932, "grad_norm": 13.077238082885742, "learning_rate": 1.4089347079037801e-06, "loss": 0.1536, "num_tokens": 1194300.0, "step": 2796 }, { "epoch": 0.9323333333333333, "grad_norm": 19.924745559692383, "learning_rate": 1.4020618556701031e-06, "loss": 0.3613, "num_tokens": 1194737.0, "step": 2797 }, { "epoch": 0.9326666666666666, "grad_norm": 21.548063278198242, "learning_rate": 1.3951890034364263e-06, "loss": 0.366, "num_tokens": 1195152.0, "step": 2798 }, { "epoch": 0.933, "grad_norm": 15.090727806091309, "learning_rate": 1.3883161512027493e-06, "loss": 0.2853, "num_tokens": 1195651.0, "step": 2799 }, { "epoch": 0.9333333333333333, "grad_norm": 18.70217514038086, "learning_rate": 1.3814432989690724e-06, "loss": 0.3108, "num_tokens": 1196023.0, "step": 2800 }, { "epoch": 0.9336666666666666, "grad_norm": 21.637327194213867, "learning_rate": 1.3745704467353954e-06, "loss": 0.3675, "num_tokens": 1196423.0, "step": 2801 }, { "epoch": 0.934, "grad_norm": 18.333282470703125, "learning_rate": 1.3676975945017184e-06, "loss": 0.3139, "num_tokens": 1196854.0, "step": 2802 }, { "epoch": 0.9343333333333333, "grad_norm": 20.19390296936035, "learning_rate": 1.3608247422680412e-06, "loss": 0.3274, "num_tokens": 1197279.0, "step": 2803 }, { "epoch": 0.9346666666666666, "grad_norm": 14.69888973236084, "learning_rate": 1.3539518900343642e-06, "loss": 0.2799, "num_tokens": 1197990.0, "step": 2804 }, { "epoch": 0.935, "grad_norm": 18.258342742919922, "learning_rate": 1.3470790378006874e-06, "loss": 0.2703, "num_tokens": 1198338.0, "step": 2805 }, { "epoch": 0.9353333333333333, "grad_norm": 14.277318954467773, "learning_rate": 1.3402061855670104e-06, "loss": 0.276, "num_tokens": 1198989.0, "step": 2806 }, { "epoch": 0.9356666666666666, "grad_norm": 30.533531188964844, "learning_rate": 1.3333333333333334e-06, "loss": 0.4535, "num_tokens": 1199245.0, "step": 2807 }, { "epoch": 0.936, "grad_norm": 28.22450065612793, "learning_rate": 1.3264604810996564e-06, "loss": 0.3893, "num_tokens": 1199495.0, "step": 2808 }, { "epoch": 0.9363333333333334, "grad_norm": 14.0161771774292, "learning_rate": 1.3195876288659794e-06, "loss": 0.2406, "num_tokens": 1200032.0, "step": 2809 }, { "epoch": 0.9366666666666666, "grad_norm": 18.715295791625977, "learning_rate": 1.3127147766323027e-06, "loss": 0.3641, "num_tokens": 1200521.0, "step": 2810 }, { "epoch": 0.937, "grad_norm": 7.987557888031006, "learning_rate": 1.3058419243986257e-06, "loss": 0.0878, "num_tokens": 1201064.0, "step": 2811 }, { "epoch": 0.9373333333333334, "grad_norm": 18.295886993408203, "learning_rate": 1.2989690721649487e-06, "loss": 0.2964, "num_tokens": 1201338.0, "step": 2812 }, { "epoch": 0.9376666666666666, "grad_norm": 28.105451583862305, "learning_rate": 1.2920962199312717e-06, "loss": 0.5894, "num_tokens": 1201583.0, "step": 2813 }, { "epoch": 0.938, "grad_norm": 18.479694366455078, "learning_rate": 1.2852233676975945e-06, "loss": 0.2708, "num_tokens": 1201945.0, "step": 2814 }, { "epoch": 0.9383333333333334, "grad_norm": 14.458306312561035, "learning_rate": 1.2783505154639175e-06, "loss": 0.2971, "num_tokens": 1202509.0, "step": 2815 }, { "epoch": 0.9386666666666666, "grad_norm": 26.081514358520508, "learning_rate": 1.2714776632302405e-06, "loss": 0.3741, "num_tokens": 1202794.0, "step": 2816 }, { "epoch": 0.939, "grad_norm": 16.62761116027832, "learning_rate": 1.2646048109965637e-06, "loss": 0.2602, "num_tokens": 1203110.0, "step": 2817 }, { "epoch": 0.9393333333333334, "grad_norm": 28.165203094482422, "learning_rate": 1.2577319587628867e-06, "loss": 0.4194, "num_tokens": 1203451.0, "step": 2818 }, { "epoch": 0.9396666666666667, "grad_norm": 13.231277465820312, "learning_rate": 1.2508591065292097e-06, "loss": 0.2795, "num_tokens": 1204320.0, "step": 2819 }, { "epoch": 0.94, "grad_norm": 17.774417877197266, "learning_rate": 1.2439862542955327e-06, "loss": 0.3046, "num_tokens": 1204840.0, "step": 2820 }, { "epoch": 0.9403333333333334, "grad_norm": 20.631237030029297, "learning_rate": 1.2371134020618557e-06, "loss": 0.3664, "num_tokens": 1205272.0, "step": 2821 }, { "epoch": 0.9406666666666667, "grad_norm": 31.61923599243164, "learning_rate": 1.2302405498281788e-06, "loss": 0.5549, "num_tokens": 1205558.0, "step": 2822 }, { "epoch": 0.941, "grad_norm": 30.52830696105957, "learning_rate": 1.2233676975945018e-06, "loss": 0.5151, "num_tokens": 1205813.0, "step": 2823 }, { "epoch": 0.9413333333333334, "grad_norm": 12.57776927947998, "learning_rate": 1.2164948453608248e-06, "loss": 0.2454, "num_tokens": 1206378.0, "step": 2824 }, { "epoch": 0.9416666666666667, "grad_norm": 19.451017379760742, "learning_rate": 1.2096219931271478e-06, "loss": 0.3151, "num_tokens": 1206692.0, "step": 2825 }, { "epoch": 0.942, "grad_norm": 13.904121398925781, "learning_rate": 1.202749140893471e-06, "loss": 0.1744, "num_tokens": 1207234.0, "step": 2826 }, { "epoch": 0.9423333333333334, "grad_norm": 18.655033111572266, "learning_rate": 1.195876288659794e-06, "loss": 0.4144, "num_tokens": 1207816.0, "step": 2827 }, { "epoch": 0.9426666666666667, "grad_norm": 19.150779724121094, "learning_rate": 1.1890034364261168e-06, "loss": 0.4255, "num_tokens": 1208309.0, "step": 2828 }, { "epoch": 0.943, "grad_norm": 32.67264175415039, "learning_rate": 1.18213058419244e-06, "loss": 0.576, "num_tokens": 1208625.0, "step": 2829 }, { "epoch": 0.9433333333333334, "grad_norm": 12.004759788513184, "learning_rate": 1.175257731958763e-06, "loss": 0.252, "num_tokens": 1209344.0, "step": 2830 }, { "epoch": 0.9436666666666667, "grad_norm": 30.896364212036133, "learning_rate": 1.168384879725086e-06, "loss": 0.4078, "num_tokens": 1209534.0, "step": 2831 }, { "epoch": 0.944, "grad_norm": 21.55123519897461, "learning_rate": 1.161512027491409e-06, "loss": 0.3164, "num_tokens": 1209987.0, "step": 2832 }, { "epoch": 0.9443333333333334, "grad_norm": 32.53606033325195, "learning_rate": 1.154639175257732e-06, "loss": 0.4841, "num_tokens": 1210194.0, "step": 2833 }, { "epoch": 0.9446666666666667, "grad_norm": 26.916492462158203, "learning_rate": 1.147766323024055e-06, "loss": 0.3911, "num_tokens": 1210446.0, "step": 2834 }, { "epoch": 0.945, "grad_norm": 21.7069149017334, "learning_rate": 1.140893470790378e-06, "loss": 0.3777, "num_tokens": 1210901.0, "step": 2835 }, { "epoch": 0.9453333333333334, "grad_norm": 19.021657943725586, "learning_rate": 1.134020618556701e-06, "loss": 0.2475, "num_tokens": 1211318.0, "step": 2836 }, { "epoch": 0.9456666666666667, "grad_norm": 13.715456008911133, "learning_rate": 1.127147766323024e-06, "loss": 0.2599, "num_tokens": 1211889.0, "step": 2837 }, { "epoch": 0.946, "grad_norm": 15.180134773254395, "learning_rate": 1.1202749140893473e-06, "loss": 0.2646, "num_tokens": 1212472.0, "step": 2838 }, { "epoch": 0.9463333333333334, "grad_norm": 32.41794967651367, "learning_rate": 1.1134020618556703e-06, "loss": 0.4211, "num_tokens": 1212776.0, "step": 2839 }, { "epoch": 0.9466666666666667, "grad_norm": 26.66925621032715, "learning_rate": 1.1065292096219931e-06, "loss": 0.3917, "num_tokens": 1213107.0, "step": 2840 }, { "epoch": 0.947, "grad_norm": 19.775638580322266, "learning_rate": 1.0996563573883161e-06, "loss": 0.4081, "num_tokens": 1213575.0, "step": 2841 }, { "epoch": 0.9473333333333334, "grad_norm": 15.649317741394043, "learning_rate": 1.0927835051546393e-06, "loss": 0.2432, "num_tokens": 1213990.0, "step": 2842 }, { "epoch": 0.9476666666666667, "grad_norm": 21.02082061767578, "learning_rate": 1.0859106529209624e-06, "loss": 0.3005, "num_tokens": 1214303.0, "step": 2843 }, { "epoch": 0.948, "grad_norm": 19.41986656188965, "learning_rate": 1.0790378006872854e-06, "loss": 0.4132, "num_tokens": 1214718.0, "step": 2844 }, { "epoch": 0.9483333333333334, "grad_norm": 23.47172737121582, "learning_rate": 1.0721649484536084e-06, "loss": 0.2918, "num_tokens": 1214975.0, "step": 2845 }, { "epoch": 0.9486666666666667, "grad_norm": 33.1331672668457, "learning_rate": 1.0652920962199314e-06, "loss": 0.6007, "num_tokens": 1215331.0, "step": 2846 }, { "epoch": 0.949, "grad_norm": 26.066673278808594, "learning_rate": 1.0584192439862544e-06, "loss": 0.4545, "num_tokens": 1215672.0, "step": 2847 }, { "epoch": 0.9493333333333334, "grad_norm": 25.735944747924805, "learning_rate": 1.0515463917525774e-06, "loss": 0.4043, "num_tokens": 1216038.0, "step": 2848 }, { "epoch": 0.9496666666666667, "grad_norm": 33.348297119140625, "learning_rate": 1.0446735395189004e-06, "loss": 0.4299, "num_tokens": 1216351.0, "step": 2849 }, { "epoch": 0.95, "grad_norm": 22.684585571289062, "learning_rate": 1.0378006872852234e-06, "loss": 0.3391, "num_tokens": 1216625.0, "step": 2850 }, { "epoch": 0.9503333333333334, "grad_norm": 10.214672088623047, "learning_rate": 1.0309278350515464e-06, "loss": 0.2305, "num_tokens": 1217585.0, "step": 2851 }, { "epoch": 0.9506666666666667, "grad_norm": 13.0924711227417, "learning_rate": 1.0240549828178694e-06, "loss": 0.1881, "num_tokens": 1218087.0, "step": 2852 }, { "epoch": 0.951, "grad_norm": 18.646839141845703, "learning_rate": 1.0171821305841924e-06, "loss": 0.304, "num_tokens": 1218447.0, "step": 2853 }, { "epoch": 0.9513333333333334, "grad_norm": 20.724119186401367, "learning_rate": 1.0103092783505157e-06, "loss": 0.3211, "num_tokens": 1218872.0, "step": 2854 }, { "epoch": 0.9516666666666667, "grad_norm": 16.770505905151367, "learning_rate": 1.0034364261168387e-06, "loss": 0.3455, "num_tokens": 1219443.0, "step": 2855 }, { "epoch": 0.952, "grad_norm": 15.920105934143066, "learning_rate": 9.965635738831617e-07, "loss": 0.2349, "num_tokens": 1219974.0, "step": 2856 }, { "epoch": 0.9523333333333334, "grad_norm": 36.33335494995117, "learning_rate": 9.896907216494845e-07, "loss": 0.5922, "num_tokens": 1220259.0, "step": 2857 }, { "epoch": 0.9526666666666667, "grad_norm": 17.147048950195312, "learning_rate": 9.828178694158077e-07, "loss": 0.3193, "num_tokens": 1221009.0, "step": 2858 }, { "epoch": 0.953, "grad_norm": 18.508996963500977, "learning_rate": 9.759450171821307e-07, "loss": 0.3418, "num_tokens": 1221467.0, "step": 2859 }, { "epoch": 0.9533333333333334, "grad_norm": 14.931013107299805, "learning_rate": 9.690721649484537e-07, "loss": 0.2258, "num_tokens": 1221808.0, "step": 2860 }, { "epoch": 0.9536666666666667, "grad_norm": 24.980880737304688, "learning_rate": 9.621993127147767e-07, "loss": 0.4013, "num_tokens": 1222213.0, "step": 2861 }, { "epoch": 0.954, "grad_norm": 12.932284355163574, "learning_rate": 9.553264604810997e-07, "loss": 0.2279, "num_tokens": 1222681.0, "step": 2862 }, { "epoch": 0.9543333333333334, "grad_norm": 17.5128116607666, "learning_rate": 9.484536082474227e-07, "loss": 0.3251, "num_tokens": 1223160.0, "step": 2863 }, { "epoch": 0.9546666666666667, "grad_norm": 17.377653121948242, "learning_rate": 9.415807560137457e-07, "loss": 0.2958, "num_tokens": 1223529.0, "step": 2864 }, { "epoch": 0.955, "grad_norm": 14.53791332244873, "learning_rate": 9.347079037800689e-07, "loss": 0.1916, "num_tokens": 1223967.0, "step": 2865 }, { "epoch": 0.9553333333333334, "grad_norm": 18.71718406677246, "learning_rate": 9.278350515463919e-07, "loss": 0.3723, "num_tokens": 1224346.0, "step": 2866 }, { "epoch": 0.9556666666666667, "grad_norm": 23.035741806030273, "learning_rate": 9.209621993127149e-07, "loss": 0.4184, "num_tokens": 1224662.0, "step": 2867 }, { "epoch": 0.956, "grad_norm": 23.471052169799805, "learning_rate": 9.140893470790378e-07, "loss": 0.4071, "num_tokens": 1225104.0, "step": 2868 }, { "epoch": 0.9563333333333334, "grad_norm": 16.316633224487305, "learning_rate": 9.072164948453609e-07, "loss": 0.2865, "num_tokens": 1225562.0, "step": 2869 }, { "epoch": 0.9566666666666667, "grad_norm": 17.318754196166992, "learning_rate": 9.003436426116839e-07, "loss": 0.2983, "num_tokens": 1225861.0, "step": 2870 }, { "epoch": 0.957, "grad_norm": 19.461091995239258, "learning_rate": 8.93470790378007e-07, "loss": 0.2987, "num_tokens": 1226169.0, "step": 2871 }, { "epoch": 0.9573333333333334, "grad_norm": 20.074254989624023, "learning_rate": 8.8659793814433e-07, "loss": 0.2653, "num_tokens": 1226507.0, "step": 2872 }, { "epoch": 0.9576666666666667, "grad_norm": 24.750465393066406, "learning_rate": 8.79725085910653e-07, "loss": 0.5946, "num_tokens": 1226888.0, "step": 2873 }, { "epoch": 0.958, "grad_norm": 25.771501541137695, "learning_rate": 8.728522336769759e-07, "loss": 0.3832, "num_tokens": 1227209.0, "step": 2874 }, { "epoch": 0.9583333333333334, "grad_norm": 28.252016067504883, "learning_rate": 8.65979381443299e-07, "loss": 0.4343, "num_tokens": 1227540.0, "step": 2875 }, { "epoch": 0.9586666666666667, "grad_norm": 30.777013778686523, "learning_rate": 8.59106529209622e-07, "loss": 0.3873, "num_tokens": 1227749.0, "step": 2876 }, { "epoch": 0.959, "grad_norm": 20.05733871459961, "learning_rate": 8.522336769759452e-07, "loss": 0.3094, "num_tokens": 1228200.0, "step": 2877 }, { "epoch": 0.9593333333333334, "grad_norm": 13.168255805969238, "learning_rate": 8.453608247422682e-07, "loss": 0.1585, "num_tokens": 1228775.0, "step": 2878 }, { "epoch": 0.9596666666666667, "grad_norm": 33.26900863647461, "learning_rate": 8.384879725085911e-07, "loss": 0.5001, "num_tokens": 1229040.0, "step": 2879 }, { "epoch": 0.96, "grad_norm": 12.670221328735352, "learning_rate": 8.316151202749141e-07, "loss": 0.2541, "num_tokens": 1229695.0, "step": 2880 }, { "epoch": 0.9603333333333334, "grad_norm": 19.14505386352539, "learning_rate": 8.247422680412372e-07, "loss": 0.416, "num_tokens": 1230227.0, "step": 2881 }, { "epoch": 0.9606666666666667, "grad_norm": 18.885717391967773, "learning_rate": 8.178694158075602e-07, "loss": 0.3335, "num_tokens": 1230749.0, "step": 2882 }, { "epoch": 0.961, "grad_norm": 25.43470573425293, "learning_rate": 8.109965635738832e-07, "loss": 0.4591, "num_tokens": 1231129.0, "step": 2883 }, { "epoch": 0.9613333333333334, "grad_norm": 17.184825897216797, "learning_rate": 8.041237113402063e-07, "loss": 0.2873, "num_tokens": 1231638.0, "step": 2884 }, { "epoch": 0.9616666666666667, "grad_norm": 22.199909210205078, "learning_rate": 7.972508591065292e-07, "loss": 0.3837, "num_tokens": 1232040.0, "step": 2885 }, { "epoch": 0.962, "grad_norm": 24.166955947875977, "learning_rate": 7.903780068728522e-07, "loss": 0.4402, "num_tokens": 1232335.0, "step": 2886 }, { "epoch": 0.9623333333333334, "grad_norm": 12.452017784118652, "learning_rate": 7.835051546391754e-07, "loss": 0.1843, "num_tokens": 1232891.0, "step": 2887 }, { "epoch": 0.9626666666666667, "grad_norm": 21.145145416259766, "learning_rate": 7.766323024054984e-07, "loss": 0.4858, "num_tokens": 1233339.0, "step": 2888 }, { "epoch": 0.963, "grad_norm": 15.999001502990723, "learning_rate": 7.697594501718214e-07, "loss": 0.2749, "num_tokens": 1233837.0, "step": 2889 }, { "epoch": 0.9633333333333334, "grad_norm": 20.25387954711914, "learning_rate": 7.628865979381445e-07, "loss": 0.5234, "num_tokens": 1234316.0, "step": 2890 }, { "epoch": 0.9636666666666667, "grad_norm": 24.0734806060791, "learning_rate": 7.560137457044674e-07, "loss": 0.3496, "num_tokens": 1234596.0, "step": 2891 }, { "epoch": 0.964, "grad_norm": 23.482746124267578, "learning_rate": 7.491408934707904e-07, "loss": 0.3517, "num_tokens": 1234988.0, "step": 2892 }, { "epoch": 0.9643333333333334, "grad_norm": 23.794939041137695, "learning_rate": 7.422680412371135e-07, "loss": 0.3319, "num_tokens": 1235317.0, "step": 2893 }, { "epoch": 0.9646666666666667, "grad_norm": 39.8879508972168, "learning_rate": 7.353951890034365e-07, "loss": 0.5241, "num_tokens": 1235626.0, "step": 2894 }, { "epoch": 0.965, "grad_norm": 13.687010765075684, "learning_rate": 7.285223367697595e-07, "loss": 0.2085, "num_tokens": 1236249.0, "step": 2895 }, { "epoch": 0.9653333333333334, "grad_norm": 11.35189151763916, "learning_rate": 7.216494845360824e-07, "loss": 0.2334, "num_tokens": 1236974.0, "step": 2896 }, { "epoch": 0.9656666666666667, "grad_norm": 18.048450469970703, "learning_rate": 7.147766323024055e-07, "loss": 0.3089, "num_tokens": 1237385.0, "step": 2897 }, { "epoch": 0.966, "grad_norm": 15.142422676086426, "learning_rate": 7.079037800687286e-07, "loss": 0.2172, "num_tokens": 1237830.0, "step": 2898 }, { "epoch": 0.9663333333333334, "grad_norm": 21.16855812072754, "learning_rate": 7.010309278350516e-07, "loss": 0.3625, "num_tokens": 1238191.0, "step": 2899 }, { "epoch": 0.9666666666666667, "grad_norm": 19.89372444152832, "learning_rate": 6.941580756013747e-07, "loss": 0.3139, "num_tokens": 1238612.0, "step": 2900 }, { "epoch": 0.967, "grad_norm": 25.008304595947266, "learning_rate": 6.872852233676977e-07, "loss": 0.4818, "num_tokens": 1239057.0, "step": 2901 }, { "epoch": 0.9673333333333334, "grad_norm": 16.1348876953125, "learning_rate": 6.804123711340206e-07, "loss": 0.266, "num_tokens": 1239419.0, "step": 2902 }, { "epoch": 0.9676666666666667, "grad_norm": 26.38178825378418, "learning_rate": 6.735395189003437e-07, "loss": 0.4128, "num_tokens": 1239759.0, "step": 2903 }, { "epoch": 0.968, "grad_norm": 11.03023910522461, "learning_rate": 6.666666666666667e-07, "loss": 0.1571, "num_tokens": 1240163.0, "step": 2904 }, { "epoch": 0.9683333333333334, "grad_norm": 22.909446716308594, "learning_rate": 6.597938144329897e-07, "loss": 0.3599, "num_tokens": 1240423.0, "step": 2905 }, { "epoch": 0.9686666666666667, "grad_norm": 35.35147476196289, "learning_rate": 6.529209621993128e-07, "loss": 0.5345, "num_tokens": 1240715.0, "step": 2906 }, { "epoch": 0.969, "grad_norm": 17.8872127532959, "learning_rate": 6.460481099656358e-07, "loss": 0.3174, "num_tokens": 1241238.0, "step": 2907 }, { "epoch": 0.9693333333333334, "grad_norm": 16.4509220123291, "learning_rate": 6.391752577319587e-07, "loss": 0.3964, "num_tokens": 1241742.0, "step": 2908 }, { "epoch": 0.9696666666666667, "grad_norm": 13.74385929107666, "learning_rate": 6.323024054982819e-07, "loss": 0.1885, "num_tokens": 1242153.0, "step": 2909 }, { "epoch": 0.97, "grad_norm": 13.282242774963379, "learning_rate": 6.254295532646049e-07, "loss": 0.2502, "num_tokens": 1242809.0, "step": 2910 }, { "epoch": 0.9703333333333334, "grad_norm": 35.126747131347656, "learning_rate": 6.185567010309279e-07, "loss": 0.582, "num_tokens": 1243165.0, "step": 2911 }, { "epoch": 0.9706666666666667, "grad_norm": 18.665939331054688, "learning_rate": 6.116838487972509e-07, "loss": 0.3008, "num_tokens": 1243546.0, "step": 2912 }, { "epoch": 0.971, "grad_norm": 33.270973205566406, "learning_rate": 6.048109965635739e-07, "loss": 0.4808, "num_tokens": 1243741.0, "step": 2913 }, { "epoch": 0.9713333333333334, "grad_norm": 19.88420295715332, "learning_rate": 5.97938144329897e-07, "loss": 0.4377, "num_tokens": 1244218.0, "step": 2914 }, { "epoch": 0.9716666666666667, "grad_norm": 19.881019592285156, "learning_rate": 5.9106529209622e-07, "loss": 0.3294, "num_tokens": 1244561.0, "step": 2915 }, { "epoch": 0.972, "grad_norm": 20.59368324279785, "learning_rate": 5.84192439862543e-07, "loss": 0.3198, "num_tokens": 1244957.0, "step": 2916 }, { "epoch": 0.9723333333333334, "grad_norm": 34.786231994628906, "learning_rate": 5.77319587628866e-07, "loss": 0.6363, "num_tokens": 1245211.0, "step": 2917 }, { "epoch": 0.9726666666666667, "grad_norm": 29.888517379760742, "learning_rate": 5.70446735395189e-07, "loss": 0.533, "num_tokens": 1245515.0, "step": 2918 }, { "epoch": 0.973, "grad_norm": 36.45264434814453, "learning_rate": 5.63573883161512e-07, "loss": 0.4548, "num_tokens": 1245794.0, "step": 2919 }, { "epoch": 0.9733333333333334, "grad_norm": 18.79391098022461, "learning_rate": 5.567010309278352e-07, "loss": 0.2848, "num_tokens": 1246186.0, "step": 2920 }, { "epoch": 0.9736666666666667, "grad_norm": 22.66530990600586, "learning_rate": 5.498281786941581e-07, "loss": 0.2956, "num_tokens": 1246568.0, "step": 2921 }, { "epoch": 0.974, "grad_norm": 17.22533416748047, "learning_rate": 5.429553264604812e-07, "loss": 0.2411, "num_tokens": 1246890.0, "step": 2922 }, { "epoch": 0.9743333333333334, "grad_norm": 21.943885803222656, "learning_rate": 5.360824742268042e-07, "loss": 0.3478, "num_tokens": 1247272.0, "step": 2923 }, { "epoch": 0.9746666666666667, "grad_norm": 25.156082153320312, "learning_rate": 5.292096219931272e-07, "loss": 0.3349, "num_tokens": 1247535.0, "step": 2924 }, { "epoch": 0.975, "grad_norm": 34.71571350097656, "learning_rate": 5.223367697594502e-07, "loss": 0.7761, "num_tokens": 1247953.0, "step": 2925 }, { "epoch": 0.9753333333333334, "grad_norm": 15.5015287399292, "learning_rate": 5.154639175257732e-07, "loss": 0.2385, "num_tokens": 1248320.0, "step": 2926 }, { "epoch": 0.9756666666666667, "grad_norm": 16.895679473876953, "learning_rate": 5.085910652920962e-07, "loss": 0.2873, "num_tokens": 1248979.0, "step": 2927 }, { "epoch": 0.976, "grad_norm": 29.223424911499023, "learning_rate": 5.017182130584193e-07, "loss": 0.43, "num_tokens": 1249233.0, "step": 2928 }, { "epoch": 0.9763333333333334, "grad_norm": 18.278961181640625, "learning_rate": 4.948453608247422e-07, "loss": 0.2766, "num_tokens": 1249583.0, "step": 2929 }, { "epoch": 0.9766666666666667, "grad_norm": 14.034322738647461, "learning_rate": 4.879725085910653e-07, "loss": 0.1899, "num_tokens": 1250056.0, "step": 2930 }, { "epoch": 0.977, "grad_norm": 20.02456283569336, "learning_rate": 4.810996563573884e-07, "loss": 0.2659, "num_tokens": 1250438.0, "step": 2931 }, { "epoch": 0.9773333333333334, "grad_norm": 42.595516204833984, "learning_rate": 4.7422680412371136e-07, "loss": 0.7108, "num_tokens": 1250687.0, "step": 2932 }, { "epoch": 0.9776666666666667, "grad_norm": 18.20652198791504, "learning_rate": 4.673539518900344e-07, "loss": 0.342, "num_tokens": 1251109.0, "step": 2933 }, { "epoch": 0.978, "grad_norm": 19.252986907958984, "learning_rate": 4.6048109965635743e-07, "loss": 0.3465, "num_tokens": 1251566.0, "step": 2934 }, { "epoch": 0.9783333333333334, "grad_norm": 21.44228744506836, "learning_rate": 4.5360824742268044e-07, "loss": 0.3976, "num_tokens": 1251847.0, "step": 2935 }, { "epoch": 0.9786666666666667, "grad_norm": 18.432701110839844, "learning_rate": 4.467353951890035e-07, "loss": 0.3069, "num_tokens": 1252273.0, "step": 2936 }, { "epoch": 0.979, "grad_norm": 24.106523513793945, "learning_rate": 4.398625429553265e-07, "loss": 0.3604, "num_tokens": 1252531.0, "step": 2937 }, { "epoch": 0.9793333333333333, "grad_norm": 18.387004852294922, "learning_rate": 4.329896907216495e-07, "loss": 0.2772, "num_tokens": 1252925.0, "step": 2938 }, { "epoch": 0.9796666666666667, "grad_norm": 14.235934257507324, "learning_rate": 4.261168384879726e-07, "loss": 0.2832, "num_tokens": 1253497.0, "step": 2939 }, { "epoch": 0.98, "grad_norm": 15.563644409179688, "learning_rate": 4.1924398625429554e-07, "loss": 0.2015, "num_tokens": 1253890.0, "step": 2940 }, { "epoch": 0.9803333333333333, "grad_norm": 36.0269889831543, "learning_rate": 4.123711340206186e-07, "loss": 0.3967, "num_tokens": 1254111.0, "step": 2941 }, { "epoch": 0.9806666666666667, "grad_norm": 19.467565536499023, "learning_rate": 4.054982817869416e-07, "loss": 0.3583, "num_tokens": 1254533.0, "step": 2942 }, { "epoch": 0.981, "grad_norm": 18.262975692749023, "learning_rate": 3.986254295532646e-07, "loss": 0.2068, "num_tokens": 1254995.0, "step": 2943 }, { "epoch": 0.9813333333333333, "grad_norm": 10.954553604125977, "learning_rate": 3.917525773195877e-07, "loss": 0.1916, "num_tokens": 1255781.0, "step": 2944 }, { "epoch": 0.9816666666666667, "grad_norm": 34.254051208496094, "learning_rate": 3.848797250859107e-07, "loss": 0.6417, "num_tokens": 1256060.0, "step": 2945 }, { "epoch": 0.982, "grad_norm": 21.715435028076172, "learning_rate": 3.780068728522337e-07, "loss": 0.3465, "num_tokens": 1256422.0, "step": 2946 }, { "epoch": 0.9823333333333333, "grad_norm": 15.266016006469727, "learning_rate": 3.7113402061855675e-07, "loss": 0.2608, "num_tokens": 1256870.0, "step": 2947 }, { "epoch": 0.9826666666666667, "grad_norm": 13.721492767333984, "learning_rate": 3.6426116838487976e-07, "loss": 0.189, "num_tokens": 1257670.0, "step": 2948 }, { "epoch": 0.983, "grad_norm": 15.438361167907715, "learning_rate": 3.5738831615120277e-07, "loss": 0.2164, "num_tokens": 1258110.0, "step": 2949 }, { "epoch": 0.9833333333333333, "grad_norm": 23.82407569885254, "learning_rate": 3.505154639175258e-07, "loss": 0.4664, "num_tokens": 1258496.0, "step": 2950 }, { "epoch": 0.9836666666666667, "grad_norm": 26.278945922851562, "learning_rate": 3.4364261168384884e-07, "loss": 0.3432, "num_tokens": 1258875.0, "step": 2951 }, { "epoch": 0.984, "grad_norm": 24.451662063598633, "learning_rate": 3.3676975945017185e-07, "loss": 0.5557, "num_tokens": 1259242.0, "step": 2952 }, { "epoch": 0.9843333333333333, "grad_norm": 19.98134422302246, "learning_rate": 3.2989690721649486e-07, "loss": 0.4416, "num_tokens": 1259635.0, "step": 2953 }, { "epoch": 0.9846666666666667, "grad_norm": 19.898317337036133, "learning_rate": 3.230240549828179e-07, "loss": 0.3549, "num_tokens": 1260014.0, "step": 2954 }, { "epoch": 0.985, "grad_norm": 26.30171012878418, "learning_rate": 3.1615120274914093e-07, "loss": 0.3672, "num_tokens": 1260301.0, "step": 2955 }, { "epoch": 0.9853333333333333, "grad_norm": 29.396133422851562, "learning_rate": 3.0927835051546394e-07, "loss": 0.4287, "num_tokens": 1260623.0, "step": 2956 }, { "epoch": 0.9856666666666667, "grad_norm": 14.362720489501953, "learning_rate": 3.0240549828178694e-07, "loss": 0.2739, "num_tokens": 1261078.0, "step": 2957 }, { "epoch": 0.986, "grad_norm": 9.199772834777832, "learning_rate": 2.9553264604811e-07, "loss": 0.1171, "num_tokens": 1261699.0, "step": 2958 }, { "epoch": 0.9863333333333333, "grad_norm": 18.488906860351562, "learning_rate": 2.88659793814433e-07, "loss": 0.3368, "num_tokens": 1262226.0, "step": 2959 }, { "epoch": 0.9866666666666667, "grad_norm": 13.207572937011719, "learning_rate": 2.81786941580756e-07, "loss": 0.197, "num_tokens": 1262708.0, "step": 2960 }, { "epoch": 0.987, "grad_norm": 32.872562408447266, "learning_rate": 2.7491408934707903e-07, "loss": 0.6016, "num_tokens": 1263021.0, "step": 2961 }, { "epoch": 0.9873333333333333, "grad_norm": 22.22461700439453, "learning_rate": 2.680412371134021e-07, "loss": 0.422, "num_tokens": 1263358.0, "step": 2962 }, { "epoch": 0.9876666666666667, "grad_norm": 23.115615844726562, "learning_rate": 2.611683848797251e-07, "loss": 0.5033, "num_tokens": 1263763.0, "step": 2963 }, { "epoch": 0.988, "grad_norm": 23.028528213500977, "learning_rate": 2.542955326460481e-07, "loss": 0.4645, "num_tokens": 1264159.0, "step": 2964 }, { "epoch": 0.9883333333333333, "grad_norm": 27.830524444580078, "learning_rate": 2.474226804123711e-07, "loss": 0.6091, "num_tokens": 1264433.0, "step": 2965 }, { "epoch": 0.9886666666666667, "grad_norm": 16.99295997619629, "learning_rate": 2.405498281786942e-07, "loss": 0.3285, "num_tokens": 1264860.0, "step": 2966 }, { "epoch": 0.989, "grad_norm": 14.360092163085938, "learning_rate": 2.336769759450172e-07, "loss": 0.2071, "num_tokens": 1265352.0, "step": 2967 }, { "epoch": 0.9893333333333333, "grad_norm": 32.12078094482422, "learning_rate": 2.2680412371134022e-07, "loss": 0.4979, "num_tokens": 1265576.0, "step": 2968 }, { "epoch": 0.9896666666666667, "grad_norm": 19.346202850341797, "learning_rate": 2.1993127147766326e-07, "loss": 0.3658, "num_tokens": 1266090.0, "step": 2969 }, { "epoch": 0.99, "grad_norm": 12.632797241210938, "learning_rate": 2.130584192439863e-07, "loss": 0.2247, "num_tokens": 1266735.0, "step": 2970 }, { "epoch": 0.9903333333333333, "grad_norm": 20.529584884643555, "learning_rate": 2.061855670103093e-07, "loss": 0.3958, "num_tokens": 1267245.0, "step": 2971 }, { "epoch": 0.9906666666666667, "grad_norm": 17.284666061401367, "learning_rate": 1.993127147766323e-07, "loss": 0.2737, "num_tokens": 1267776.0, "step": 2972 }, { "epoch": 0.991, "grad_norm": 20.487993240356445, "learning_rate": 1.9243986254295534e-07, "loss": 0.4662, "num_tokens": 1268271.0, "step": 2973 }, { "epoch": 0.9913333333333333, "grad_norm": 9.933259963989258, "learning_rate": 1.8556701030927838e-07, "loss": 0.1574, "num_tokens": 1269132.0, "step": 2974 }, { "epoch": 0.9916666666666667, "grad_norm": 16.918012619018555, "learning_rate": 1.7869415807560139e-07, "loss": 0.3197, "num_tokens": 1269612.0, "step": 2975 }, { "epoch": 0.992, "grad_norm": 14.832512855529785, "learning_rate": 1.7182130584192442e-07, "loss": 0.2014, "num_tokens": 1270020.0, "step": 2976 }, { "epoch": 0.9923333333333333, "grad_norm": 16.63327407836914, "learning_rate": 1.6494845360824743e-07, "loss": 0.283, "num_tokens": 1270503.0, "step": 2977 }, { "epoch": 0.9926666666666667, "grad_norm": 18.926389694213867, "learning_rate": 1.5807560137457046e-07, "loss": 0.37, "num_tokens": 1270902.0, "step": 2978 }, { "epoch": 0.993, "grad_norm": 17.55535888671875, "learning_rate": 1.5120274914089347e-07, "loss": 0.3039, "num_tokens": 1271403.0, "step": 2979 }, { "epoch": 0.9933333333333333, "grad_norm": 21.441360473632812, "learning_rate": 1.443298969072165e-07, "loss": 0.4579, "num_tokens": 1271892.0, "step": 2980 }, { "epoch": 0.9936666666666667, "grad_norm": 23.824359893798828, "learning_rate": 1.3745704467353952e-07, "loss": 0.3195, "num_tokens": 1272202.0, "step": 2981 }, { "epoch": 0.994, "grad_norm": 25.0517635345459, "learning_rate": 1.3058419243986255e-07, "loss": 0.4828, "num_tokens": 1272538.0, "step": 2982 }, { "epoch": 0.9943333333333333, "grad_norm": 21.820419311523438, "learning_rate": 1.2371134020618556e-07, "loss": 0.3696, "num_tokens": 1272928.0, "step": 2983 }, { "epoch": 0.9946666666666667, "grad_norm": 16.717744827270508, "learning_rate": 1.168384879725086e-07, "loss": 0.2998, "num_tokens": 1273341.0, "step": 2984 }, { "epoch": 0.995, "grad_norm": 16.21478843688965, "learning_rate": 1.0996563573883163e-07, "loss": 0.2595, "num_tokens": 1273820.0, "step": 2985 }, { "epoch": 0.9953333333333333, "grad_norm": 22.858856201171875, "learning_rate": 1.0309278350515465e-07, "loss": 0.3174, "num_tokens": 1274087.0, "step": 2986 }, { "epoch": 0.9956666666666667, "grad_norm": 14.860236167907715, "learning_rate": 9.621993127147767e-08, "loss": 0.2586, "num_tokens": 1274662.0, "step": 2987 }, { "epoch": 0.996, "grad_norm": 14.957563400268555, "learning_rate": 8.934707903780069e-08, "loss": 0.1982, "num_tokens": 1275118.0, "step": 2988 }, { "epoch": 0.9963333333333333, "grad_norm": 25.618520736694336, "learning_rate": 8.247422680412371e-08, "loss": 0.4109, "num_tokens": 1275386.0, "step": 2989 }, { "epoch": 0.9966666666666667, "grad_norm": 32.60319137573242, "learning_rate": 7.560137457044674e-08, "loss": 0.555, "num_tokens": 1275690.0, "step": 2990 }, { "epoch": 0.997, "grad_norm": 12.315383911132812, "learning_rate": 6.872852233676976e-08, "loss": 0.2692, "num_tokens": 1276513.0, "step": 2991 }, { "epoch": 0.9973333333333333, "grad_norm": 21.223264694213867, "learning_rate": 6.185567010309278e-08, "loss": 0.3137, "num_tokens": 1276825.0, "step": 2992 }, { "epoch": 0.9976666666666667, "grad_norm": 14.746289253234863, "learning_rate": 5.4982817869415814e-08, "loss": 0.239, "num_tokens": 1277311.0, "step": 2993 }, { "epoch": 0.998, "grad_norm": 21.369836807250977, "learning_rate": 4.8109965635738836e-08, "loss": 0.3169, "num_tokens": 1277718.0, "step": 2994 }, { "epoch": 0.9983333333333333, "grad_norm": 11.700736999511719, "learning_rate": 4.123711340206186e-08, "loss": 0.1848, "num_tokens": 1278296.0, "step": 2995 }, { "epoch": 0.9986666666666667, "grad_norm": 21.451753616333008, "learning_rate": 3.436426116838488e-08, "loss": 0.3081, "num_tokens": 1278656.0, "step": 2996 }, { "epoch": 0.999, "grad_norm": 19.953468322753906, "learning_rate": 2.7491408934707907e-08, "loss": 0.3967, "num_tokens": 1279212.0, "step": 2997 }, { "epoch": 0.9993333333333333, "grad_norm": 33.15577697753906, "learning_rate": 2.061855670103093e-08, "loss": 0.5526, "num_tokens": 1279497.0, "step": 2998 }, { "epoch": 0.9996666666666667, "grad_norm": 31.846872329711914, "learning_rate": 1.3745704467353954e-08, "loss": 0.4506, "num_tokens": 1279763.0, "step": 2999 }, { "epoch": 1.0, "grad_norm": 21.16975975036621, "learning_rate": 6.872852233676977e-09, "loss": 0.3405, "num_tokens": 1280201.0, "step": 3000 }, { "epoch": 1.0, "step": 3000, "total_flos": 5.765140303105229e+16, "train_loss": 0.4087340577716629, "train_runtime": 741.1274, "train_samples_per_second": 8.096, "train_steps_per_second": 4.048 } ], "logging_steps": 1, "max_steps": 3000, "num_input_tokens_seen": 0, "num_train_epochs": 1, "save_steps": 500, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": true }, "attributes": {} } }, "total_flos": 5.765140303105229e+16, "train_batch_size": 1, "trial_name": null, "trial_params": null }