프로그래밍/데이터 사이언스 공부

YOLO 등 모델 훈련 시 최적의 에폭수는 없다

이자다 2023. 12. 6. 18:05
반응형

전에 주워듣기론 YOLO 같은 모델은 파인튜닝 시 최소 300 에폭은 돌려야 한다고 들었는데 그렇다면 모델이나 데이터셋 크기 등을 기준으로 최적의 에폭수가 있는지 해서 찾아봤다.

 

chatGPT나 데이터 사이언스 톡방 등에 질문해보았는데 정해진 에폭수는 없다는 답을 얻었다.

 

모델 훈련 결과로 나오는 파라미터를 보고 개발자가 최적의 방향으로 나아가는게 최선이라고 한다.

 

아마 YOLOv8의 patience 옵션처럼 해당 모델이 n에폭 동안 성능 향상이 없으면 훈련을 중단시키는 것도 이를 위해서인 것 같다.

 

성능 향상은 없는데 계속 훈련시키면 과적합의 위험이 있으니 성능은 가져가면서 과적합 위험을 줄이기 위함일 것이다.

 

정해진 기준이 없다면 결국 개발자가 성능의 그래프를 보고 해당 모델을 더 훈련시킬지 말지를 결정해야 하는데 이를 위해선 그래프를 당연히 알아볼 수 있어야하니 공부를 소홀히 하지 말아야겠다.

반응형