J'ai un peu détaillé la méthode hier : au-lieu de générer une image complètement neuve, on part de l'identifiant du "point de départ" utilisé par le modèle et on change juste un petit détail.
Ici le détail changeant, c'était juste l'année de prise de la photographie. Je suis remonté comme ça jusqu'au 19e siècle.
Un petit constat d'ailleurs au passage : malgré l'utilisation d'un point de départ fixe l'image générée n'est pas toujours stable, en particulier lorsque le modèle considère que texte introduit un changement important dans la représentation visuelle.
Et sans surprise les moments les plus compliqués pour représenter une visualisation historique correspondent à moments de ruptures dans les représentations visuelles : 1830-1840, 1910-1920, 1960-1970 et 1990-2000.
• • •
Missing some Tweet in this thread? You can try to
force a refresh
1. Can generative model recreate original (potentially protected) works? Yes, definitely, although it remains extremely rare and in these few cases it's not really an issue.
Tout le débat sur art et IA me fait incidemment réaliser que le moment décisif où l'on passe de l'art visuel du 20e siècle à celui du 21e c'est quand le jeu vidéo remplace la presse comme cadre de référence (donc grosso modo vers 1995-2005 : c'est commode)
Au fond il y a une relative continuité entre les deux formes privilégiées du 20e, la bd style strip/ligne claire d'un côté, l'art abstrait de l'autre : un éloignement du naturalisme et une relative simplification qui s'exporte très bien dans les pages du journal ou du magazine.
Depuis, aussi bien les instrumenents de l'art numériques que, surtout, la demande de l'industrie du jeu vidéo ont favorisé des représentations (semi-)naturalistes avec un rendu élaboré des textures.
Une petite démonstration complémentaire sur la génération visuelle avec #stablediffusion : on peut aussi utiliser l'outil pour faire de l'édition d'image.
Les images composées comprennent en réalité deux éléments : le texte de génération et le "seed" ou graine, soit en réalité le point départ utilisé par le générateur d'image. En changeant le texte, mais en gardant le même "seed", on peut éditer une image (à peu près) stable.
Un exemple typique consiste, par exemple, à changer la date. Voici la même petite rue parisienne (imaginaire) en 1970, 1980, 1990 et 2000.
Sans surprise le débat sur IA, création artistique et droit d'auteur est en train d'exploser. Et je pense qu'il y un biais : on ne voit passer sur les réseaux que les images les plus réussies sans soupçonner tout le travail derrière.
Je vois souvent des comparaisons avec la naissance de la photographie et c'est très juste : une bonne image générée, ça se cadre, il faut travailler la couleur, la composition, le contraste, comme dans un studios de photo, sauf que le texte de prompt tient lieu de mise en scène
Pour des créations vraiment originales il faut élaborer tout une stratégie et mobiliser tout un répertoire de références culturelles croisées qui ne se mélangent pas toujours très bien. Il y a beaucoup de ratés avant d'aboutir à un résultat convaincant.
Allez un petit thread sur un aspect problématique (parmi d’autres) de l’étude de @DisinfoEUspark.adobe.com/page/Sa85zpU5C… : l’identification automatisée de l’orientation politique de comptes Twitter.
Dans l’étude cette information est reconstituée à partir d’une subdivision du réseau en ensembles cohérents ou clusters : le cluster 1 correspond à LR, le cluster 2 au RN, etc.
On forme ainsi l’hypothèse que les liens entre les comptes sont révélateurs d’une "communauté" politiques : les comptes d’extrême-gauche suivent surtout des comptes d’extrême-gauche (mais peu de comptes d’extrême-droite).