所以我想用tf。keras.回调。ModelCheckpoint在Keras调谐,但是你选择的路径保存检查站,不能让你保存它作为一个文件有一定的名称,这个名字相关的审判和执行的,检查点,只有关联的时代。
也就是说,如果我简单地把这个放回调在Keras调谐,在目前的检查站保存会发生,在结束时,我不知道如何联系的检查站保存到一个审判和审判分执行,只要的时代。
所以我想用tf。keras.回调。ModelCheckpoint在Keras调谐,但是你选择的路径保存检查站,不能让你保存它作为一个文件有一定的名称,这个名字相关的审判和执行的,检查点,只有关联的时代。
也就是说,如果我简单地把这个放回调在Keras调谐,在目前的检查站保存会发生,在结束时,我不知道如何联系的检查站保存到一个审判和审判分执行,只要的时代。
你可以使用 tf.keras.callbacks.ModelCheckpoint
对于 Keras tuner
同样的方式使用其他模式保存检查站。
培训后的模型,与超参数得以从搜索按 这一 模式,可以定义模型检查站和保存如下:
hypermodel = tuner.hypermodel.build(best_hps)
# Retrain the model
hypermodel.fit(img_train, label_train, epochs=best_epoch, validation_split=0.2)
import os
checkpoint_path = "training_1/cp.ckpt"
checkpoint_dir = os.path.dirname(checkpoint_path)
# Create a callback that saves the model's weights
cp_callback = tf.keras.callbacks.ModelCheckpoint(filepath=checkpoint_path,
save_weights_only=True,
verbose=1)
history = hypermodel.fit(img_train, label_train, epochs=5, validation_split=0.2, callbacks=[cp_callback])
os.listdir(checkpoint_dir)
# Re-evaluate the model
loss, acc = hypermodel.evaluate(img_test, label_test, verbose=2)
print("Restored model, accuracy: {:5.2f}%".format(100 * acc))
# Loads the weights
hypermodel.load_weights(checkpoint_path)
# Re-evaluate the model
loss, acc = hypermodel.evaluate(img_test, label_test, verbose=2)
print("Restored model, accuracy: {:5.2f}%".format(100 * acc))
请参阅 本 链接获取更多inofrmation在保存和载荷的模型检查站。