L'application d'édition de photos dégradées critiquée pour la fonction de visage 'raciste' de l'IA

click fraud protection

retouche photo téléphone intelligent app Gradient est sous le feu des critiques sur les réseaux sociaux pour une nouvelle fonctionnalité annoncée qui permet aux gens de voir une image d'eux-mêmes dans diverses ethnies. Bien que l'application Gradient ne soit pas encore vraiment devenue virale, les premiers commentaires de la communauté en ligne semble soit simplement s'amuser avec les images, soit être profondément préoccupé par les préjugés raciaux potentiels jouer.

L'application Gradient a été lancée sur Google Play et App Stores à l'automne 2019 par Ticket to the Moon, Inc. Dirigé par deux passionnés d'intelligence artificielle et d'apprentissage automatique, il a d'abord commencé comme une application d'édition faciale utilisant l'IA pour une manipulation plus efficace des selfies et d'autres images de médias sociaux. Les développeurs ont rapidement ajouté des fonctionnalités plus triviales pour le plaisir, telles que la possibilité de transformer son image en un portrait classique. Lors de la prochaine mise à jour publiée en mars, l'application Gradient pourrait

scanner le visage d'une personne et prédire leur ascendance ADN suivie d'une caractéristique qui prédit à quel animal une personne ressemble le plus. Cependant, l'équipe Gradient a rapidement commencé à s'aventurer dans un territoire plus risqué, offrant aux utilisateurs de l'application la possibilité de se scanner et de recevoir un « score de beauté ». Cette la semaine dernière, la dernière mise à jour de l'application utilise l'IA et la reconnaissance faciale pour transformer une image et montrer à quoi ressemblerait cette personne en "Europe", "Asie", "Inde" et 'Brésil.'

D'après Gradient site Internet, cette nouvelle fonctionnalité, appelée AI Face, permet à une personne de, 'découvrez à quoi vous ressembleriez si vous étiez né sur un autre continent. Le site Web et les captures d'écran de l'application sur Twitter révèlent que plusieurs des emplacements proposés sont en fait des pays et non des continents, notamment le Brésil et l'Inde. Alors que l'Inde et l'Asie sont deux choix distincts disponibles sur Gradient to manipuler son teint et la forme du visage, il est important de noter que l'Inde fait en fait partie de l'Asie. Ce type de vaste association de diverses cultures et ethnies a déjà commencé à recueillir des publicité pour l'application, surtout après avoir utilisé au hasard des stars de la réalité B-List pour la promouvoir sur les réseaux sociaux médias.

Vous devez essayer cette nouvelle fonctionnalité dans l'application de dégradé. #un dpic.twitter.com/K5nzUN9Fuo

– Brody Jenner (@BrodyJenner) 24 septembre 2020

Gradient: une mode de courte durée ou une colline qui vaut la peine de mourir ?

Jusqu'à présent, de nombreuses personnes utilisant l'application Gradient semblent l'essayer une fois pour le plaisir de voir à quoi elles ressemblent en tant que personne d'autres ethnies, puis passent à autre chose. Cependant, d'autres ne le voient pas innocemment et sont plus préoccupés par biais que l'IA elle-même encode. Les personnalités de la réalité Scott Disick et Brody Jenner ont tous deux tweeté leurs propres images à l'aide de la fonction AI Face de Gradient et ont tous deux été très clairs dans leurs tweets sur le fait qu'il s'agissait d'une publicité payante. Cependant, Twitter n'a pas tardé à attaquer, remettant en question les intentions de l'application tout en exprimant son indignation envers les images. Disick et Jenner ont tous deux désactivé les commentaires après avoir été bombardés d'accusations de racisme et de promotion du "blackface". Plutôt que sauter simplement sur quelqu'un pour promouvoir une application pour de l'argent, certaines personnes plus informées de la communauté de l'IA ont appelé à une approche constructive action.

Professeur Anima Anandkumar, directrice de la recherche en IA chez Nvidia, Tweeté que bien que l'application Gradient utilise clairement des préjugés raciaux qui ne sont pas les bienvenus, elle pourrait constituer une opportunité efficace pour Twitter d'effectuer une étude contrôlée de sa propre technologie de recadrage d'IA. Prof. Anandkumar a elle-même utilisé l'application dans plusieurs Tweets pour exploiter le Préjugés raciaux de l'IA Twitter a joué dans lequel la photo avec la peau la plus foncée n'a jamais été choisi comme candidat pour en vedette recadrer.

#pente#faceapp est problématique en raison de #biais ça encode. #Indien#femmes sont stéréotypés pour porter un maquillage des yeux épais. Mais cela pourrait fournir une étude contrôlée pour @Twitter#IA#recadrer puisqu'il contrôle tous les autres facteurs. Besoin de mettre un espace pour #recadrer. @vinayprabhupic.twitter.com/SlOQv2Ef17

— Pr. Anima Anandkumar (@AnimaAnandkumar) 25 septembre 2020

Alors qu'Anandkumar utilisait toujours sa plate-forme pour souligner les défauts raciaux évidents de l'application Gradient, Anandkumar a également imploré Twitter de profiter de l'occasion pour corriger ses propres préjugés raciaux présents de manière convaincante au sein de son IA. Si l'application Gradient prenait de l'ampleur et passait à une application rouge comme TikTok, cela entraînerait certainement plus de controverse. Pour l'instant, cependant, l'application Gradient (bien que clairement imparfaite) vole toujours sous le radar de la société pour la plupart.

La source: Pente, Prof. Anima Anandkumar/Twitter

Star Wars révèle les chevaliers originaux de Ren, extraterrestres inclus

A propos de l'auteur