- Шта је Минибатцх дискриминација?
- Како спречавате колапс ГАН -ова режима?
- Како могу побољшати своју ГАН обуку?
- Зашто је ГАН нестабилан?
Шта је Минибатцх дискриминација?
Дискриминација у мини серијама је дискриминаторна техника за генеративне контрадикторне мреже у којој разликујемо између читавих мини серија узорака, а не између појединачних узорака. Овим се жели избећи колапс генератора.
Како спречавате колапс ГАН -ова режима?
Пажљиво подешена стопа учења може ублажити неке озбиљне проблеме ГАН -а, попут пада режима. Конкретно, смањите брзину учења и поновите обуку када дође до колапса режима. Такође можемо експериментисати са различитим брзинама учења за генератор и дискриминатор.
Како могу побољшати своју ГАН обуку?
Додатни савети и трикови
- Подударање функција. Развити ГАН користећи учење под полунадзором.
- Мини -серија дискриминације. Развијте функције за више узорака у мини серији.
- Историјско усредњавање. Ажурирајте функцију губитка да бисте укључили историју.
- Једнострано заглађивање етикета. ...
- Виртуелна нормализација серије.
Зашто је ГАН нестабилан?
Чињеница да се ГАН-ови састоје од две мреже, а свака од њих има своју функцију губитка, резултира чињеницом да су ГАН-ови инхерентно нестабилни- зарањајући дубље у проблем, губитак Генератора (Г) може довести до нестабилности ГАН-а , што може бити узрок проблема нестајања градијента када се ...