<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Société on Voir en Images</title><link>https://voirenimages.net/societe/</link><description>Recent content in Société on Voir en Images</description><generator>Hugo</generator><language>fr-FR</language><lastBuildDate>Tue, 03 Mar 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://voirenimages.net/societe/index.xml" rel="self" type="application/rss+xml"/><item><title>Éthique de l'intelligence artificielle dans la génération d'images</title><link>https://voirenimages.net/societe/ethique-ia-generation-images/</link><pubDate>Tue, 03 Mar 2026 00:00:00 +0000</pubDate><guid>https://voirenimages.net/societe/ethique-ia-generation-images/</guid><description>&lt;p>L&amp;rsquo;&lt;strong>éthique de l&amp;rsquo;intelligence artificielle&lt;/strong> appliquée à la génération d&amp;rsquo;images couvre trois problèmes majeurs : la violation des droits d&amp;rsquo;auteur, la production de deepfakes et les biais visuels encodés dans les modèles. Depuis 2023, plus de 15 milliards d&amp;rsquo;images ont été générées par IA selon Everypixel Journal. Sans cadre éthique clair, ces outils amplifient désinformation et discrimination.&lt;/p>
&lt;h2 id="ce-que-produit-lia-générative-en-2026">Ce que produit l&amp;rsquo;IA générative en 2026&lt;/h2>
&lt;p>Midjourney, DALL-E 3, Stable Diffusion XL, Adobe Firefly, Imagen 3 de Google : cinq modèles dominent le marché. Leur puissance a explosé en trois ans. Midjourney v6, lancé fin 2024, génère des visages humains indiscernables de photographies réelles dans 89 % des cas, d&amp;rsquo;après une étude de l&amp;rsquo;université de Waterloo publiée en 2024.&lt;/p></description></item><item><title>L'impact des images sur l'opinion publique</title><link>https://voirenimages.net/societe/impact-images-opinion-publique/</link><pubDate>Sun, 25 Jan 2026 00:00:00 +0000</pubDate><guid>https://voirenimages.net/societe/impact-images-opinion-publique/</guid><description>&lt;p>Les &lt;strong>images façonnent l&amp;rsquo;opinion&lt;/strong> plus efficacement que les textes. Une étude de l&amp;rsquo;université de Pennsylvanie (2023) démontre qu&amp;rsquo;une photographie d&amp;rsquo;actualité modifie l&amp;rsquo;opinion d&amp;rsquo;un lecteur dans 65 % des cas, contre 38 % pour un article sans visuel. Ce pouvoir impose une responsabilité éditoriale que les médias ne mesurent pas toujours.&lt;/p>
&lt;h2 id="le-cerveau-traite-limage-avant-la-raison">Le cerveau traite l&amp;rsquo;image avant la raison&lt;/h2>
&lt;p>Le système limbique réagit à une image en 150 millisecondes, bien avant que le cortex préfrontal ne puisse analyser le contenu. Cette réaction émotionnelle crée un biais d&amp;rsquo;ancrage : l&amp;rsquo;opinion se forme avant la réflexion.&lt;/p></description></item><item><title>Désinformation visuelle : comment vérifier les images</title><link>https://voirenimages.net/societe/desinformation-visuelle-verifier-images/</link><pubDate>Sat, 15 Nov 2025 00:00:00 +0000</pubDate><guid>https://voirenimages.net/societe/desinformation-visuelle-verifier-images/</guid><description>&lt;p>La &lt;strong>désinformation visuelle&lt;/strong> a augmenté de 230 % entre 2022 et 2025, selon l&amp;rsquo;Information Futures Lab. Deepfakes, images générées par IA, photos sorties de leur contexte : les faux visuels circulent plus vite que les démentis. Les &lt;a href="https://voirenimages.net/actualites/medias-visuels-transformation-information-2026/">médias visuels accélèrent le phénomène&lt;/a>. Vérifier une image avant de la partager devient un réflexe vital.&lt;/p>
&lt;h2 id="trois-types-de-manipulation-visuelle">Trois types de manipulation visuelle&lt;/h2>
&lt;p>Toutes les fausses images ne se ressemblent pas. Les identifier exige de comprendre comment elles sont produites.&lt;/p></description></item></channel></rss>