La multiplication des images sexuelles générées par Grok, l’intelligence artificielle de la plateforme X, a mis sur le devant de la scène les dérives potentielles des outils IA.
Des détournements de photographies réelles ou des créations explicites avec des personnes identifiables ont été recensés sur le réseau social X. Ces usages interrogent sur les limites de la technologie et la responsabilité humaine derrière ces dérives.
Pour Karim Youssef, le cofondateur de l’IA luxembourgeoise génératrice d’images, LetzAI, ce phénomène n’est pas celui d’une IA devenue incontrôlable, mais «c’est autant un problème humain qu’un problème technologique».
Une IA n’a pas de morale propre
Non, une intelligence artificielle générative n’est pas capable de juger par elle-même ce qui est acceptable ou non. «L’IA n’a pas de capacités de réflexion intrinsèques et n’est pas consciente», pose Karim Youssef.
Autrement dit, elle ne raisonne ni en termes de bien ni de mal. «Un système d’IA générative ne pense pas intrinsèquement en termes d’éthique, mais reflète plutôt l’éthique implicite et sous-jacente présente dans ses données d’entraînement», précise-t-il.
Les contenus dépendent donc directement des données utilisées pour entraîner les modèles, mais aussi des filtres ou des limites définis par leurs concepteurs. L’IA n’a pas de conscience : elle reproduit un cadre, elle ne l’invente pas. Dès lors, les ...
Cet article est réservé aux abonnés.
Pour profiter pleinement de l'ensemble de ses articles, vous propose de découvrir ses offres d'abonnement.