L’outil « supprimer », l’IA générative dans Ps.

Philippe Lasserre juillet 2023, maj 6 aout

On peut débattre de longues heures sur l’utilité et les dangers de l’IA et son impact dans la photographie (nous l’avons déjà fait). On a le droit de trouver l’IA dans Ps absolument géniale ou comme la pire des choses. On a le droit de l’utiliser ou pas. On a le droit d’être inquiet et même d’en avoir peur. Mais cela n’est pas le sujet ici  (mais vous pouvez lire ceci ).

Ici je resterais uniquement sur l’aspect technique en montrant ce que peut faire l’IA dans Photoshop, sans aucun jugement de valeur.  Firefly c’est ICI.

Les résultats sont parfois aberrants et vraiment du n’importe quoi, c’est de l’IA avec des résultats imprévisibles. Il faut choisir, faire des essais (modifier la zone, le prompt) et parfois se résoudre à employer une autre méthode. L’IA ne connait pas tout, ne comprend pas tout, ne peut pas tout, c’est une technique jeune, en version beta. Ce n’est pas parce que ce n’est pas parfait qu’il faut la rejeter ; elle fera partie des « outils » parmi d’autres. 

Nous parlerons de l’outil supprimer et du remplissage génératif dans Photoshop (Firefly qui est une application web accessible par votre navigateur qui peut créer des images dans Firefly puis les mettre dans Photoshop, voir Firefly Ici.). 

Voici le plan :

  • Comment cela marche,
  • L’outil « supprimer »,
  • Le remplissage génératif.
    • Généralités,
    • Enlever un élément,
    • Changer un élément,
    • Améliorer une photo de portrait,
    • Ajouter une ombre,
    • Ajoutez un élément,
    • Agrandir une image,
    • Changer un fond,
    • Relier deux images,
    • Créer une image de toute pièce
  • Conclusion.

Comment cela marche ?

Je parle du remplissage génératif  dans Ps et de Firefly l’application web.

Cette IA utilise les réseaux neuronaux (analogie avec le cortex cérébral) : il y a plusieurs couches de « neurones », chaque « neurone »  d’une couche interagissant  avec la couche d’en dessous par de multiples liaisons. Le remplissage génératif utilise des réseaux de neurones récurrents (RNN) ; certains neurones agissant sur les couches précédentes. En entrée on introduit des mots, en sortie il y a des pixels. Pour aller un peu plus loin : il y a au départ une image ne contenant que du bruit, l’IA débruite l’image mais dirigée par ce qu’on lui demande et progressivement apparait l’élément demandé. Pour que cela fonctionne il faut au préalable « entraîner » le réseau avec de très grandes quantités de mots et d’images. Il faut des ressources de calcul considérables. D’où viennent les images qui ont servis à éduquer l’IA ? Firefly est entraîné sur les centaines de millions d’images haute résolution de qualité professionnelle sous licence d’Adobe Stock (le contrat de licence que les utilisateurs de Stock acceptent le permet). Adobe dit : « Le modèle d’IA actuel de Firefly est entraîné sur un jeu de données Adobe Stock, sur des travaux sous licence libre et sur des contenus tombés dans le domaine public ; les données personnelles des abonnés Creativ Cloud par exemple ne sont pas utilisées ». Le contenu créé avec Firefly incorporera (prochainement ?), dans ses informations de traçabilité, une balise indiquant que ce contenu a été créé à l’aide de l’IA générative.    Ainsi, vous n’utilisez pas des images protégées par des droits d’auteur, en théorie. Certains juristes conseillent d’être prudent et de ne pas utiliser, pour le moment, d’images générées par l’IA. Cela change tous les jours ; des lois, une jurisprudence vont voir le jour. On verra. Adobe pour le moment déconseille d’utiliser les images générées par la version beta à des fins commerciales.

L’outil « Supprimer ».

Il travaille avec une IA locale (pas besoin de connexion internet) , c’est souvent plus rapide, et il génère une modification qui conserve la même résolution que l’image de départ. Ce jour (fin juillet 2023) cette fonction déjà dans la version officielle de  Ps (v24.7).

Premièrement, sélectionnez l’outil « Supprimer » :

Avec l’outil passer sur l’élément à effacer, il est surligné, lâcher le bouton de la souris, l’élément disparait après un certain temps.

Si dans la barre en haut « Déposer après chaque trait » est coché, dès que vous lâcher le bouton de la souris la suppression se fait. Il faut donc dans ce cas passer sur la totalité de l’élément à effacer en un trait. Si, par contre, ce n’est pas coché, vous pourrez passer plusieurs traits sur différentes zones puis cliquer sur « Appliquer ».

« Supprimer » modifie le calque actif ; pour être non destructeur (ne pas modifier les pixels), il faut ajouter un calque vide dessus, cocher « échantillonner tous les calques » et utiliser l’outil « supprimer » sur le calque vide.

Le remplissage génératif.

Ce jour (fin juillet 2023) cette fonction est dans la version beta de PS, pas dans la version officielle.

Il a besoin d’une liaison avec les serveurs Adobe pour fonctionner. L’image générée est au maximum de 1024 x1024 pixels actuellement ; si votre zone sélectionnée est très grande (en termes de nombre de pixels) la zone générée aura une résolution inférieure au reste de l’image. Il est possible de contourner cela en travaillant sur plusieurs zones plus petites.

L’outil « Supprimer » a plutôt tendance à effacer et mettre à la place l’arrière-plan alors que le remplissage génératif à tendance à mettre quelque chose à la place (il génère si on lui donne des indications).

De manière générale le remplissage génératif est plus efficace sur les grandes surfaces et l’outil supprimer est pratique sur les petits détails. Mais attention, le remplissage génératif génère une image aux dimensions réduites.

Aucune technique n’est infaillible il faut faire des essais avec l’outil « Supprimer », le remplissage génératif et aussi le remplissage avec le contenu pris en compte et choisir la meilleure méthode ; aucune de ces méthodes n’est parfaites.

De plus la génération est faite par IA, cela n’est pas comme un simple algorithme qui donnera un résultat prévisible : l’IA peut donner des résultats étonnants mais parfois des choses imprévisibles très bizarre.

Cela fonctionne sur une image RGB (pas sur une image CMJN ou niveau de gris).

Le prompt est un texte que l’on tape pour indiquer ce qu’on veut générer. C’est une « Invite » à taper ce qu’on désire.

La première étape consiste à sélectionner une partie de l’image avec les outils habituels. Pas besoin de sélection précise, on sélectionne généralement grossièrement avec le lasso ou le rectangle de sélection.

Il apparait la « barre de tache conceptuelle ».

Cliquez sur le bouton « Remplissage génératif » :

On voit une zone de saisie de texte ou on peut taper le « prompt » (ou ne rien taper).

  • S’il n’y a pas de prompt, l’IA remplit un peu comme le remplissage avec contenu pris en compte. Mais bien mieux. S’il y a un élément dans la zone sélectionnée, cela l’efface généralement. Ci-dessous, on sélectionne les fils et on génère sans prompt : 

 

 

  • S’il y a un prompt l’IA répond au prompt dans l’environnement de la photo et peut ajouter ou remplacer un élément. Ci-dessous on a sélectionné une zone vide et on a tapé « chien » dans le prompt avant de générer.

Le prompt était nécessairement écrit en anglais. Mais depuis la beta v25 le français et 99 autres langues sont acceptées. En fait si vous utilisez le français, l’outil Microsoft Translator traduit le texte en anglais. Il peut donc y avoir des notions mal traduites. Mais avec les retours des utilisateurs cela s’améliorera. S’il y a un problème avec le prompt en français, réécrivez le en anglais.

Pour de meilleurs résultats, Adobe dit de préférer des noms et des adjectifs descriptifs dans les invites de texte plutôt que des invites instructives comme « fill », « remplir » ou « create.. », « créer ».

Remplissage génératif ajuste automatiquement la perspective, l’éclairage et le style de votre image. 3 à 8 mots comprenant un sujet et des descripteurs c’est suffisant. Ne vous souciez pas d’ajouter des commandes comme « ajouter» ou « enlever ». Écrivez simplement ce que vous voulez voir dit Adobe.

Il faut cliquer sur « Générer » pour lancer le processus.

Ps ajoute un « calque génératif » avec un masque limitant l’image générée à la zone précédemment sélectionnée, le panneau « Propriétés » de ce calque contient trois propositions différentes de génération.

Cliquez sur une des trois images propositions pour la voir apparaitre.

Si vous modifiez le prompt et générer de nouveau, il y aura trois nouvelles propositions différentes qui s’ajouteront aux propositions précédentes.

Si vous enregistrez l’image et l’ouvrez de nouveau les propositions seront toujours là et donc enregistrées. Pour alléger l’image, on peut cliquez sur les 3 petits points qui apparaissent quand le curseur passe sur une des propositions et choisir dans le menu « Supprimer » et ainsi ne conserver que la version générée intéressante.

Si nous désirons conserver les propositions de remplissage dans des calques de pixel, il faut faire un clic droit sur le calque de remplissage et cliquer sur « Convertir en calques ».

Ps ajoute un groupe avec des calques de pixel contenant les diverses proposition du remplissage génératif.

 

Pour ceux qui veulent en savoir un peu plus  sur la définition de la partie générée.
L’IA est capable de générer des images de 1024 x 1024 pixels. Si la zone à remplir est plus grande, l’image à générer sera plus grande mais probablement « transformée » en plus grand à partir d’une image 1024 x 1024. La résolution sera donc moins bonne.
Prenons un exemple : sélectionnons l’appareil photo et tapons « orange » dans le prompt.
On a vu que le remplissage génératif créait un calque. Si on ne visualise que ce calque génératif et qu’on désactive le masque (image ci-dessous), on se rend compte que l’IA a généré une image de 1936 x 1936 pixels  dans notre exemple ; on voit en grossissant que la résolution est moins bonne par rapport au reste de l’image. Le masque sert à limiter la zone précédemment sélectionnée (seconde image ci-dessous) :
On en déduit que pour que l’image générée ai la même définition que l’image de départ il faut générer une zone dont les dimensions se rapprochent le plus de 1024 x1024, quitte à générer successivement plusieurs zones de 1024 x 1024. 

La technologie de remplissage génératif est la même que Firefly d’Adobe qui propose des images en ligne, mais Firefly permet plus de réglages (style, couleurs…) avec un résultat à télécharger.  Le « remplissage génératif » donne moins de possibilités de directives, car l’IA déduit le contexte de l’image de départ, ses caractéristiques (dessin, peinture, photo…) et créé un contenu en fonction du style de la photo. 

A noter que si on compare plusieurs générations avec le même prompt, ce n’est jamais les mêmes images qui sont générées.

Exemples pratiques de remplissage génératif :

Enlever un élément :

Ici un élément à enlever, je le sélectionne avec le lasso polygonal à gauche puis « Remplissage génératif » sans aucun texte dans la zone de prompt. Résultat à droite.
Ce résultat aurait pu être effectué avec d’autres méthodes, mais avec le remplissage génératif c’est très rapide à faire.
L’IA résout des effacements bien plus complexes avec reconstitution de l’arrière-plan, mais d’autres méthodes ont aussi de très bons résultats :
Ci-dessous on enlève un fil.
Bien que déconseillée par Adobe, un prompt indiquant la tâche à effectuer peut parfois avoir de meilleurs résultats qu’un prompt vide (je n’ai pas vérifié cela). On aurait pu tenter ci-dessus « remove electrical wiring » si le résultat avec un prompt vide n’avait pas été parfait. On rappelle qu’on peut taper maintenant le prompt en français. 
Ci-dessous j’ai sélectionné les deux personnes et sans prompt le remplissage génératif les a effacés :
On peut donc sélectionner plusieurs zones, elles seront toutes traitées. Bon, si on regarde en détails il y a quelques imperfections, mais cela fait vraiment gagner du temps.
Voyons l’importance de la zone de sélection :
Si je sélectionne largement autour de la voiture (photo de gauche) , et ne met pas de prompt , l’IA fait disparaitre la voiture et recrée un arrière-plan (image de droite) :
Par contre, si je sélectionne précisément la voiture (avec la sélection d’objet), toujours sans mettre de prompt, il génère une autre voiture à la place :
Conclusion, pour effacer un élément, sélectionnez largement autour de cet élément. Si on sélectionne très près l’IA a plutôt tendance a remplacer l’élément pas quelque chose de similaire (avec un prompt vide) ou en suivant les directives du prompt s’il y en a un.
Enlever un reflet dans les lunettes : j’ai vu, il me semble un exemple, mais honnêtement, c’est impossible à refaire : qu’on sélectionne uniquement le reflet ou une zone plus large, les résultats sont aberrants avec généralement création d’un nouvel œil non conforme. Cela confirme qu’avec le remplissage génératif on crée un nouvel élément, on ne modifie pas un élément existant. 
 
Par contre pour enlever des lunettes , je sélectionne juste les lunettes et avec un prompt vide je les enleve dans la photo ci-dessous. Pas besoin de taper « enlever les lunettes ».
Cela marche bien car les yeux sont hors des lunettes. Mais si je sélectionne les lunettes sur la photo ci-dessous cela ne fonctionne plus : il y a création de nouvelles lunettes et de nouveaux yeux. Comme quoi on peut montrer des exemples bluffants dans certaines conditions, mais avoir de très mauvais résultats dans un autre contexte.

Remplacer un élément par un autre :

Si le prompt est vide, l’IA remplit ; mais si vous tapez un texte (en anglais), l’IA génère ce que vous demandez en l’intégrant dans le contexte.
Là j’ai sélectionné largement l’appareil photo et j’ai tapé « orange », Une orange a remplacé l’appareil photo avec une intégration bluffante dans la main. L’orange est un peu grosse, il y a un gros défaut sur un doigt et à 100% la qualité est moindre que sur le reste de la photo.
On peut modifier la zone sélectionnée (cela a une influence sur la taille de l’élément généré). On peut modifier le prompt, générer plusieurs zones séparées, retravailler sur les zones imparfaites. Il faut travailler…
Le résultat est non destructeur puisqu’il est mis sur un calque séparé : l’IA fournit 3 versions, on peut en effacer 2 pour gagner de la place.
Autre exemple :
Si je sélectionne un haut de crâne et que je tape « hair » dans le prompt, l’IA met des cheveux sur le crâne, comme il y avait des lunettes elle remplace les lunettes. Là l’exemple n’est pas heureux mais il y a moyen de faire mieux.
Dans cet exemple j’ai sélectionné les cheveux et tapé « red hair » , l’IA n’a pas coloré les cheveux présents mais a créer de novo une chevelure rouge qui n’est pas la chevelure initiale. Il y a même des versions ou l’IA a ajouté un visage. Il faut bien comprendre que l’IA crée quelque chose de nouveau dans la zone sélectionnée mais ne modifie pas l’existant dans la sélection.
Ci-dessus j’ai choisi la meilleure version, mais souvent les résultats sont surprenants : ci-dessous dans l’image du milieu il y a eu création d’un visage. Pour la photo de droite j’ai tapé « red hair without face » et l’IA n’a pas rajouté de visage. Il faut donc ne pas hésiter à modifier la zone sélectionnée et modifier le prompt. Il faut aussi générer plusieurs fois. Les précédents résultats sont conservés dans le calque.

Pour changer un vêtement, il faut sélectionner légèrement à l’extérieur du vêtement puis taper un prompt décrivant le vètement.

Ci dessous j’ai tapé « chemisier blanc avec des fleurs », l’IA a généré l’image du milieu, elle a bien mis un chemisier blanc mais à ajouté un bouquet de fleurs ; pour obtenir un chemisier blanc contenant des fleurs il a fallut taper « chemisier blanc avec motif floral » (photo de droite).

Améliorer une photo de portrait :

Sur un portrait, si la chevelure a un bord un peu fouillis, on peut sélectionner ce bord et générer sans prompt. Ci-dessous, une des propositions est correcte ; l’IA a rajouter un peu de cheveux 

Mais le résultat est assez aléatoire et beaucoup de propositions n’apportent pas d’amélioration.
Par contre sélectionner un petit élément dans la chevelure peut être intéressant : ci-dessous, j’ai sélectionné une mèche, l’IA a enlevé la mèche et uniformiser la chevelure.
Autre exemple, si on sélectionne une partie des lèvres d’un modèle et qu’on génère avec le prompt « dent » la bouche va légèrement s’ouvrir pour montrer les dents. On se souvient que ce ne sont pas les dents du sujet mais des dents crées de toutes pièces. Attention, si vous sélectionnez toute la bouche l’IA créera une nouvelle bouche qui n’est pas du tout la bouche du modèle.
Difficile de modifier la couleur d’un élément. Ici j’ai voulu modifier la couleur de l’iris (la zone colorée) d’un œil : pas facile ; si on ne sélectionne que l’iris l’IA fait n’importe quoi ; il faut sélectionner plus large (mais pas trop car il va changer l’œil), ensuite le prompt doit être précis ; après de nombreux essais j’ai tapé « œil iris coloré bleu » et obtenu l’image de droite :
Cela a ses limites car si je tente de faire la même méthode sur l’autre oeil, je doute obtenir quelque chose de cohérent.

Ajouter des ombres :

Lors d’un montage, ajout d’une personne par exemple, il n’y a pas d’ombre  ; il est possible d’en ajouter avec l’IA : Sélectionnez la zone autour des chaussures légèrement à l’intérieur des chaussures mais très peu, générez sans prompt, le sombres sont ajoutées.

Dans une situation réelle au cours d’un photomontage, j’ai sélectionné au plus près ; sans prompt le résultat est correct mais loin d’être parfait ; les ombres ne sont pas cohérentes  : j’aurais du ne pas sélectionner la zone derrière les pieds afin qu’il n’y applique pas d’ombre car la lumière vient de l’arrière.  La cohérence des ombres est donc limitée. 

Ajouter un élément :

S’il n’y a aucun élément sur la zone sélectionnée et qu’on tape le nom de quelque chose, cette chose est rajoutée :
Ci-dessous j’ai simplement indiqué « cat ».
Les dimensions de la zone de sélection définissent la taille de l’élément généré : ci-dessus à partir d’un très petite sélection le chat de gauche est très petit ; avec une plus grande sélection le chat de droite est plus gros.
On peut indiquer des caractéristiques de l’élément à ajouter. Ci-dessous « White dog with long hair »
Généralement les ombres, les perspectives, les couleurs sont cohérentes avec le reste de l’image.
Ci-dessous « White dog with long hair jumping » pour avoir un chien blanc qui saute :
On peut ajouter toute sorte de chose : ici on va ajouter un bijou.
Il faut sélectionner le poignet (photo de gauche), taper le prompt « bracelet », on obtient l’image du milieu. Avec « Golden bracelet », on obtient l’image de droite.
J’ai aussi ajouté un chat (prompt = »cat » ou « chat ») ; trop mignon :
La surface de la zone sélectionnée a de l’importance :
Sur la taille de l’objet sélectionné : si on sélectionne une petite surface et qu’on prompt « Chat », on aura un petit chat ; si la zone est grande, on aura un grand chat.
Comme vu plus haut, si je sélectionne large autour d’un objet sans prompt, il fait disparaitre l’objet ; si je sélectionne étroit il met un autre objet.
Si je sélectionne une chevelure au plus près, il remplacera par une chevelure de même taille, si je sélectionne largement au dessus l’IA génèrera une chevelure très haute.
Certains mots ne sont pas pris en compte. 
Il est probable que l’éducation de l’IA par des millions de photos ne comprenait pas de photos correspondant à certains mots ou du moins que certains mots n’étaient pas « liés » à certaines images. Si on n’a pas éduqué l’IA avec des images de chien avec de grandes oreilles ou qu’on n’a pas dit que sur telle image de chien qu’ il avait de grandes oreilles, l’IA n’est pas capable de créer un chien avec grandes oreilles.
Ce message apparait parfois :  » les images générées ont été supprimées car elles enfreignent les consignes d’utilisation ». Il y a sans doute vérification des mots et du résultat afin d’éviter des dérapages. Mais cela ne semple pas encore bien au point. Modifiez la sélection, changez les mots du prompt et générez de nouveau. Parfois les refus ou acceptations ne sont pas très logiques. 
On peut indiquer des caractéristiques de l’élément ajouté mais pas les caractéristiques de l’environnement car la zone générée tient compte de l’environnement de la photo de départ.
Il est difficile de modifier un élément existant :
Comment donner un aspect peinture à l’huile ?
Si on sélectionne un visage (à gauche ci-dessous) et qu’on tape « oil painting », le visage sera remplacé par une peinture à l’huile sans visage ou comme sur l’image du milieu par un nouveau visage peint.
Pour conserver (pas totalement malheureusement) le visage initial, et quand même avoir un aspect peinture à l’huile, il faut sélectionner partiellement avec une sélection plus ou moins transparente : passez en mode masque (K) sélectionnez le visage avec pinceau à 25% de flux et d’opacité (20 à 40% suivant les cas), revenez en sélection (K) et là appliquez le remplissage sélectif avec « oil painting » ; on obtient l’image de droite ci-dessus ; il y a conservation des traits et léger aspect peinture à l’huile. C’est bien compliqué et un filtre simple ferait mieux ; c’est juste pour montrer que sélectionner avec une transparence modifie le comportement de l’IA. Plus c’est transparent moins l’IA agit sur ce qu’elle génère.

Bien sur, l’IA est l’outil de choix pour ajouter une chevelure ou une barbe dans un portrait.

On sélectionne le menton. Si on veut une barbe épaisse on sélectionne largement vers le bas, si on veut une barbe fine on sélectionne une petite surface.

Avec le prompt « barbe » l’ajout est parfait (image du milieu), notez que comme j’ai inclus dans la sélection une partie de la bouche une des propositions a créé une nouvelle bouche, on voit les dents.

On peut générer X fois pour obtenir ce qu’on désire (chaque génération sera différente). 

Elargir une image :

On veut agrandir la photo à droite : il faut recadrer et élargir vers la droite ; sélectionner la zone blanche avec le rectangle de sélection puis générer sans texte de prompt. 
L’IA ajoute des bambous, complète le rocher ; l’éclairage est respecté, les couleurs aussi, la lumière vient de la gauche. Là c’est un exemple simple, mais dans une photo de rue, l’IA recrée des bâtiments et des choses complexes.
Pratique quand on a cadré trop serré.
Agrandissement de l’image de droite avec contexte plus complexe. L’IA a créé une devanture de magasin avec un personnage.
Que la zone qui a été ajoutée soit blanche ou transparente, cela n’a pas d’importance (contrairement à ce que certains disent).. 
Voici ci-dessous encore un exemple d’un agrandissement de cette photo de fleur ; noter bien que la partie droite qui a été générée a créé des fleurs cohérentes avec les bouts de fleurs du bord droit de la photo.
Notez que j’ai rajouté les fleurs bleues par IA, simplement en sélectionnant la zone sans fleurs et en indiquant « blue flowers ».
Sur une photo studio quand on voit à coté du fond des éléments du studio car on a cadré trop large, il faut sélectionner tout ce qui n’est pas désiré et générer sans prompt.
Ci-dessous j’ai pris une photo du studio (pas de la modèle) ; c’est un cas extrême, car juste un test. L’IA a rempli avec le fond noir. Bon, le résultat est mauvais et le fond généré n’est pas génial, mais c’est juste un test. 
Notez que depuis la version beta 25, quand on agrandit une photo avec l’outil recadrage, dans la barre d’option on peut d’emblée indiquer de remplir la zone ajoutée avec le remplissage génératif.
Si la zone sélectionnée est trop grande (largement plus que 1024 x1024 pixels), on voit bien en zoomant que la partie générée à une définition moindre que l’image initiale. Si on veut une haute qualité de l’image générée, il faut sélectionner une zone de 1024 x1024 pixels avec l’outil rectangle de sélection (Style : taille fixe, L et H : 1024 permet d’avoir un rectangle toujours de cette taille) et sélectionner et générer successivement des carrés contigus de cette taille pour remplir petit à petit la totalité de la zone. 

Changer un fond

Sélectionnez le sujet (menu Sélection>Sujet) ; intervertir la sélection (menu Sélection>Intervertir) puis dans la barre contextuelle cliquez sur remplissage génératif et tapez « beach with boats » :

Le fond sélectionné , la sélection doit être légèrement à l’intérieur du sujet.
Autre exemple : « night castle » :
Un exemple plus photographe sur une photo noir et blanc : « bedroom with windows ». L’IA a généré du noir et blanc.

On peut aussi employer le français maintenant.

Combiner deux images.

Nous avons deux photos et nous voulons en faire un panorama, mais il manque une partie entre les deux (ci-dessous photos du haut).
Et bien, on sélectionne le rectangle transparent au centre en débordant très légèrement et on applique un remplissage génératif sans prompt : résultat sur l’image inférieure.  Bon, ce qui a été généré entre les deux photos n’existe pas dans la réalité et est pure invention. Mes vrais panoramas d’Ecosse n’ont pas de parties manquantes, eux. 

Créer une image de toute pièce.

S’il n’y a pas de contexte, l’IA crée une image de toute pièce.
Ci-dessous j’ai créé un nouveau document vide (totalement blanc) , j’ai sélectionné la totalité de l’image avec l’outil de sélection rectangulaire et j’ai tapé le prompt suivant : « House landscape montains winter » et l’IA m’a généré des images totalement nouvelles. Pour cela c’est mieux d’utiliser Firefly.

Firefly  un une application web qui fonctionnera dans votre navigateur. Elle utilise la même technologie que le remplissage génératif.
Firefly est ICI ; il faut avoir un abonnement et se connecter avec son identifiant Adobe. 
Les possibilités sont plus étendues que le remplissage génératif.

 

Pour marque-pages : Permaliens.

Les commentaires sont fermés.