J’ai voulu créer un modèle LoRA de moi-même en utilisant Kohya\_ss, mais toutes les tentatives ont échoué jusqu’à présent. Le programme termine toujours l’entraînement et atteint tous les épisodes définis. Lorsque j’essaie ensuite de le tester dans Focus ou A1111, les images ressemblent exactement aux mêmes que si je n’utilisais pas de modèle LoRA, quels que soient les paramètres de force que je fixe à 0,8 ou même à 2,0. J’ai passé des jours à essayer de comprendre ce qui pouvait causer le problème et j’ai redémarré le processus plusieurs fois. Malheureusement, rien n’a changé. J’ai ajusté le taux d’apprentissage, remplacé entièrement les images et révisé à plusieurs reprises les paramètres et les descriptions d’entraînement. Malheureusement, toutes ces tentatives ont été complètement inefficaces.
Je suis surpris qu’il ne semble apprendre rien du tout, même lorsque l’ordinateur l’entraîne pendant 6 heures complètes. Comment est-ce possible ? Ne devrait-il pas y avoir quelque chose de différent alors, non ?
Techniquement, je devrais répondre à tous les critères requis. Mon PC dispose d’un processeur AMD Ryzen 9 7000, de 64 Go de RAM et d’une carte graphique NVIDIA Geforce 5060 TI avec 16 Go de VRAM. Il fonctionne sous Fedora 43 (instable).
les images ressemblent **exactement aux mêmes** que si je n’utilisais pas un modèle LoRA, qu’il soit la force à 0,8 ou même à 2,0
Cela indique que le LoRA n’est pas utilisé du tout. Même un LoRA mal entraîné aura un effet.
Serait utile si vous listiez réellement les paramètres que vous avez utilisés
Faites-vous des échantillons à chaque époque pendant l’entraînement ? Fonctionnent-ils ?