Diffusione stabile / Jordan Gloor / How-To Geek In Stable Diffusion WebUI, fai clic sulla scheda “Extra”. Carica l’immagine o le immagini che desideri ingrandire. Regola il cursore Ridimensiona per scegliere la risoluzione desiderata. Scegli un upscaler da utilizzare. Fare clic su “Genera”. Deluso dalla bassa risoluzione delle tue creazioni Stable Diffusion? O forse hai foto “reali” più vecchie che vorresti migliorare? Stable Diffusion WebUI ha strumenti proprio per questo e ti guideremo attraverso il processo condividendo alcuni suggerimenti che abbiamo imparato lungo il percorso.
Nota: In questa guida supponiamo che tu abbia Stable Diffusion WebUI di automatic11111 installato e funzionante. È l’edizione definitiva di Stable Diffusion e rende l’upscaling (insieme a molti altri aspetti del lavoro con le immagini AI) molto più semplice e intuitivo rispetto a un impianto a Diffusione Stabile standard. Se hai un scansione di una vecchia fotouna vecchia foto digitale o un file a bassa risoluzione Immagine generata dall’intelligenza artificialeavvia Stable Diffusion WebUI e procedi nel seguente modo.
1. Carica un’immagine Tutti gli strumenti di upscaling di Stable Diffusion si trovano nella scheda “Extra”, quindi fai clic per aprire il menu di upscaling.
Oppure, se hai appena generato un’immagine che desideri ingrandire, fai clic su “Invia a Extra” e verrai indirizzato lì con l’immagine pronta per l’ingrandimento. Altrimenti, puoi trascinare e rilasciare la tua immagine nel campo Caricamento extra.
Se hai più immagini che desideri ingrandire contemporaneamente, passa alla scheda “Elaborazione batch” e rilasciane diverse contemporaneamente. Nella mia esperienza, però, questo non funziona sempre, e
Passaggio 2: scegli una taglia Usa il cursore “Ridimensiona” per regolare quanto dovrebbe essere grande l’immagine di output. Per impostazione predefinita, utilizzerai la scheda “Scala per” che ti consente di moltiplicare la risoluzione corrente dell’immagine per un dato numero. Quindi, ad esempio, se lo imposti su 2 e l’immagine di input è 512×512, l’immagine verrà ingrandita a 1024×1024.
In alternativa, puoi passare alla scheda “Ridimensiona a” e inserire una risoluzione specifica che desideri. Presta molta attenzione alle proporzioni correnti dell’immagine e deseleziona l’opzione “Ritaglia per adattare” se non desideri che i bordi vengano tagliati.
Se hai intenzione di creare uno sfondo, tieni presente che la maggior parte dei telefoni moderni utilizza un 9:16 proporzionii tablet utilizzano 4:3 e i computer 16:9 (anche se i monitor ultrawide arrivano fino a 21:9).
Passaggio 3: scegli un Upscaler Ora, qui è facile sentirsi sopraffatti: hai a disposizione diversi algoritmi di upscaling diversi, tutti con nomi criptici, e devi sceglierne uno.
Quello che dovresti scegliere in ultima analisi dipende dal tipo di immagine che stai ridimensionando, come una foto, un dipinto, l’arte di un anime o un altro tipo di opera d’arte in stile “cartone animato”. Diversi algoritmi funzionano anche a velocità diverse, quindi potrebbe anche dipendere dal tipo di fretta che hai.
Qual è il miglior upscaler a diffusione stabile? Sperimentare con i diversi algoritmi è l’unico modo per sapere esattamente quale degli upscaler integrati di Stable Diffucion è il migliore per il tuo caso. Detto questo, se desideri una raccomandazione di base, queste sono generalmente buone scelte:
Fotografie: ESRGAN_4x Dipinti: R-ESRGAN 4x+ Anime: R-ESRGAN 4x+ Anime6B Passaggio 4: di alto livello! Dopo aver configurato le impostazioni, è il momento di migliorare. Premi quel grande pulsante “Genera” per iniziare il processo.
La prima volta che esegui l’upscaling con un determinato algoritmo, Stable Diffusion dovrà scaricare i modelli appropriati, quindi aspettati che l’esecuzione iniziale richieda più tempo (che dipenderà in parte dalla velocità della tua connessione).
Una volta completato l’upscaling, troverai le immagini di output nel file extras-images sottodirectory del tuo outputs cartella.
IMPARENTATO: Come utilizzare la diffusione stabile per creare GIF e video AI
Suggerimenti per migliori risultati di upscaling Se le immagini non sembrano proprio come ti aspettavi, ci sono alcune cose che puoi fare per ottenere risultati migliori dagli strumenti di upscaling di Stable Diffusion.
Prova una combinazione Upscaler Per l’upscaling avanzato, puoi selezionare un secondo algoritmo che applicherà il suo effetto alla stessa immagine e i risultati dei due upscaler verranno miscelati per il prodotto finale. (Per essere chiari, un secondo upscaler lo farà non raddoppiare la risoluzione di uscita.) Questo è utile se trovi che due diversi upscaler producono risultati migliori per motivi diversi.
Ad esempio, nei miei test, ho scoperto che ESRGAN_4x era il migliore per mantenere i dettagli, ma SwinIR aveva meno grana, introducendo anche alcuni fastidiosi artefatti delle tessere. Potrei ottenere il meglio da entrambi i mondi impostando ESRGAN_4x come upscaler primario e SwinIR come secondario, con visibilità 0,5.
Risolvi i rapporti di aspetto errati con Outpainting Se hai un’immagine che desideri utilizzare con proporzioni specifiche ma l’immagine ingrandita è troppo alta o larga due per essere utilizzata senza ritagliare, puoi potenzialmente risolvere il problema utilizzando Lo strumento di “outpainting” di Stable Diffusion. Ti consente di generare “più” dell’immagine, aggiungendo immagini ai lati o in alto e in basso che prima non c’erano.
Per iniziare a dipingere, rilascia la tua immagine nell’input img2img e cerca il menu a discesa “Script” e seleziona Outpainting mk2 o Poor Man’s Outpainting. Regola le impostazioni che ritieni necessarie, quindi fai clic su “Genera”.
Come scoprirai rapidamente, dipingere bene è difficile e probabilmente un argomento per un’altra guida, specialmente con contenuti di immagini complessi come persone e animali. Detto questo, solo scherzando e senza apportare troppe modifiche sono riuscito a generare questa versione panoramica della mia immagine che, a prima vista, sembra quasi credibile.
Diffusione stabile / Jordan Gloor / How-To Geek Ripristina facce distorte con GPFGAN o CodeFormer Se c’è il volto di una persona nell’immagine che stai facendo esplodere, può facilmente diventare distorta oltre il riconoscimento. Senza dubbio hai visto anche alcune delle interpretazioni piuttosto orribili di volti umani di Stable Diffusion. In entrambi i casi è quando vorresti spingere il GPFGAN O CodeFormer cursori di visibilità. Ognuno applica uno strato di correzione facciale durante il processo di upscaling per riparare quegli occhi spettrali e le rughe bizzarre.
Se stai usando CodeFormer, puoi anche regolare il “peso” del suo effetto, che è un po’ come controllare il suo livello di forza (mentre il cursore visibilità è un po’ come regolare la trasparenza del suo livello di correzione). Più aumenti il peso, più CodeFormer cercherà di correggere. Questo può migliorare o degradare l’immagine finale a seconda della situazione. Potrebbe essere necessario eseguire alcuni tentativi ed errori per ottenere il miglior risultato possibile.
GPFGAN vs. CodeFormer per il restauro facciale Sebbene entrambi siano strumenti capaci, GPFGAN è generalmente migliore nel ripristinare la struttura di un viso (occhi in particolare), ma CodeFormer è migliore nel fissare le trame della pelle. GPFGAN ha la tendenza a conferire alla pelle umana uno strano aspetto ultraliscio, quindi se noti che sta accadendo, prova invece CodeFormer. In alternativa, combina i due e cerca di ottenere il meglio da entrambi i mondi. Ancora una volta, la sperimentazione è la chiave.
In termini di velocità, GPFGAN è leggermente più veloce di CodeFormer. Quindi, se stai cercando di fare in modo che il tuo upscaling avvenga il più rapidamente possibile, probabilmente vorrai appoggiarti a GPFGAN.
IMPARENTATO: Come creare fantastici sfondi per qualsiasi dispositivo con MidJourney