一律唔建議一個epoch定生死
batch大細同learning rate有影響,一般推高epoch,learning rate/unet都要相應上升
repeat數冇最佳解,建議你用
total step ÷ epoch ÷ dataset數量 =repeat
network dim一般角色用32 or 64, alpha dim 一般上 網解法有network dim/2 , /4, 甚至同network dim一樣都有, alpha dim同learning rate又有影響,教學係learning rate同alpha dim成反比關係,如果認為自己個learning rate夠做可以先郁alpha dim再試
都有反其道而行將alpha dim set 0.1~3 再推高個learning rate去降低under fit既機會, 大陸都有個sceipt用 128 net 128 alpha但配合好低既learning rate等ai慢慢學, 總知組合好多,但冇辦法保證每個都出到靚result
optmizer每個有唔同setting, 新手可先用adamW起手先,Lion個learning rate要比adamW低, 如果懶就用dadaptation系列由ai自己搵個rate. 甚至可以用ai得出既rate base再用其他optmizer