هذا قد يكون بسبب أن الإصدار الحديث من مكتبة TensorFlow و Keras ربما قد أزال أو عدّل على استخدام optimizers.experimental.AdamW لأنه في الإصدار الحديث يتم استخدام الإصدار المحدث من AdamW بالطريقة التالية:
myoptimizer = tf.keras.optimizers.AdamW(
learning_rate=0.001,
weight_decay=0.004,
beta_1=0.9,
beta_2=0.999,
epsilon=1e-07,
amsgrad=False,
name="AdamW",
)