/* --- END CSS --- */ -->

Eikomania

Le journal qui provoque le débat sur la société + les créateurs, qui se questionne sur le fait d'être acteur de ses propres stories et propose de ne pas être seulement un simple spectateur. Parce que la réalité dépasse souvent la fiction et que les histoires insolites existent ! Alors innovons et créons ensemble.

@eikomania.me

États-Unis

Pourquoi des Twittos s'amusent à déshabiller des filles avec l'IA de Grok ?

@helloitsanha x eikimoze ⚡️


Grok était censé être une machine à idées, pas une armoire à lingerie virtuelle. Pourtant, en quelques clics, des internautes ont transformé l’outil en filtres Snapchat déviants : “Ô Grok, déshabille-la s’il te plaît !” Alors on voit des images sexualisées de femmes, parfois même de mineures, circulent partout. Tout va bien ? Non.

Musk et sa bande avaient promis une IA avec moins de garde-fous, mais ils ont surtout produit un « AI nudify » qui pourrait servir de cauchemar juridique ambulant. Les autorités françaises ont élargi une enquête judiciaire sur X à cause de ces deepfakes sexuellement explicites générés sans consentement et une avalanche d’images sexualisées, générées à la chaîne, comme si le progrès technologique avait pris un abonnement premium au sexisme ordinaire.

Le consentement, cette vieille option latin

Dans une interview, Fafa a parlé d’un “sentiment d’impuissance” et de honte que, selon elle, les auteurs de ces images n’éprouvent jamais. Cela nous dit quelque chose : on n’a jamais interdit à une IA de créer une œuvre d’art digne de Rembrandt, mais dès qu’il s’agit de toucher au corps réel d’une personne, les lois (et la décence basique) se réveillent.

Déshabiller pour rire, humilier pour voir

Les auteurs de ces détournements jurent que ce n’est “que de l’humour”, “une démonstration des limites de l’IA”. Curieusement, ce sont toujours les mêmes corps qui servent de cobayes : féminins, jeunes, exposés. La blague est connue, elle ne fait rire que ceux qui ne sont jamais la cible. Ce que Grok automatise, ce n’est pas un fantasme neuf, mais une vieille habitude : disposer du corps des femmes comme d’un terrain d’expérimentation publique.

Elon Musk, chef d’orchestre de l’irresponsabilité

Derrière Grok, il y a une vision : celle d’un monde où la liberté d’expression serait totale, surtout pour ceux qui parlent le plus fort. Elon Musk applaudit l’impertinence, mais détourne le regard quand elle se transforme en harcèlement de masse. Face au tollé, X a bricolé des restrictions, limité certaines fonctions aux abonnés payants, comme si demander une carte bancaire suffisait à acheter une conscience.

La controverse ne se limite pas aux frontières hexagonales. En Grande-Bretagne, la ministre britannique de la Technologie a qualifié ces images de “contenu honteux” et pressé X de retirer rapidement les deepfakes non consentis de sa plateforme. En Indonésie, les autorités ont purement et simplement suspendu l’accès à Grok pour protéger femmes et enfants.

Le futur lave plus blanc que blanc… ou pas

Grok n’est pas un monstre : c’est un outil. Mais comme tous les outils, il révèle surtout le niveau d’éducation morale de ceux qui l’utilisent. Et si une IA peut aujourd’hui fabriquer sans effort des images dégradantes de personnes réelles, alors le progrès technologique a peut-être pris un tour… un peu trop déshabillé pour être honnête. Qu’on ne s’étonne plus si la prochaine étape, c’est une commission d’enquête pour expliquer pourquoi l’éthique n’a jamais été codée aussi vite que ce bouton “undress”.


Commentaires