[Vous devez être inscrit et connecté pour voir ce lien] Une intelligence artificielle devine si vous êtes gay ou hétéro à partir d'une photo, bien mieux que les humains
Publié le 08/09/17 à 19:25
[Vous devez être inscrit et connecté pour voir cette image] (Pixabay/CC0)
Un algorithme est capable de deviner si une personne est homosexuelle ou hétérosexuelle à partir de sa photo, rapporte le Guardian. Testée sur les photos de personnes sur un site de rencontres, l'intelligence artificielle a obtenu un score de réussite élevé.
(...)
Lorsque l'algorithme a examiné 5 images par personne, son score a encore grimpé: 91% de réussite avec les hommes et 83% avec les femmes. Selon les chercheurs, "les visages contiennent bien plus d'information sur l'orientation sexuelle que le cerveau humain ne peut le percevoir et l'interpréter". Un des auteurs estime que des IA pourraient de même s'entraîner à deviner le QI ou les idées politiques, rapporte The Economist.
Dans un monde où certains pays condamnent encore l'homosexualité, la possibilité d'une telle étude est effrayante, et pose des questions éthiques et de vie privée ! D'accord ou pas d'accord ? Vos réactions ...
C'est un instrument dangeureux parce qu'il permet une intrusion dans la vie privée et intime des gens... on devrait l'interdire.
Il aurait été plus utile de produire quelque chose qui detecterait les pédophiles, les terroristes; les violeurs en puissance, les voleurs, les corrompus ect...
L"inventeur de ces instruments meriterait le prix nobel de la paix.
"L'âme est notre demeure, Nos yeux sont ses fenêtres et nos lèvres ses messagers !"
D'accord avec Christophe, cet instrument est dangereux qu'il fonctionne ou pas. Dès lors qu'on catégorise les gens, on s'expose à une utilisation dangereuse des informations.
A interdire !
Quant à un appareil permettant de détecter violeurs, pédophiles et autres pervers, c'est prendre le risque de juger quelqu'un sur un algorithme sachant que rien n'est parfait. Mettre sa vie entre les mains d'une machine n'ayant pas de jugement c'est risqué. ça me rappelle le livre de Robert Merle Identité Numérique. C'était tout à fait le sujet. Une machine ayant jugé un type comme étant dangereux et dont la vie allait devenir un enfer parce qu'il avait omis de répondre à une question sur un questionnaire.
Le membre suivant remercie pour ce message :
Christophe Colomb
Merci pour les 12 ans de "Petite Feuille"
De la part de toute l'équipe de "Petite Feuille" nous vous remercions, vous tous, pour votre participation et votre soutien !
Pestoune : citation "Quant à un appareil permettant de détecter violeurs, pédophiles et autres pervers, c'est prendre le risque de juger quelqu'un sur un algorithme.
même si c'est une vue de l'esprit je dirai que ce serait pas juger mais mettre la main sur de fortes présomptions qu'une enquête judiciare et policiaire confirmera ou infirmera..
En tous les cas ça permettrait de preserver pas mal de potentelles victimes.. [Vous devez être inscrit et connecté pour voir cette image]
"L'âme est notre demeure, Nos yeux sont ses fenêtres et nos lèvres ses messagers !"
Khalil Gibran
Le membre suivant remercie pour ce message :
marie48
Merci pour les 12 ans de "Petite Feuille"
De la part de toute l'équipe de "Petite Feuille" nous vous remercions, vous tous, pour votre participation et votre soutien !
L’instant est grave si une simple image piquée sur des réseaux sociaux permet de dévoiler ce qui relève de l’intime. D’autant que l’homosexualité reste en effet réprimée dans de multiples pays. Dans huit pays dont l’Iran, la Mauritanie, l’Arabie saoudite et le Yémen ils sont punissables de la peine de mort. Il est donc crucial d’informer les décideurs, les compagnies technologiques et, surtout, la communauté homosexuelle à quel point les prédictions basées sur le visage peuvent être précises. Faut s’en inquiéter? ma réponse est OUI