L’association californienne soutenue par Elon Musk et créatrice du programme d’intelligence artificielle « GPT-2 » le trouvent si monstrueux qu'ils en boycottent la diffusion, par crainte qu’il n’en soit fait un usage abusif…
Atlantico : L'organisation à but non lucratif « OpenAI », créée par l'homme d'affaires Elon Musk et Sam Altman, aurait renoncé à publier le code source du programme « GPT2 » jugé bien trop puissant, car pouvant générer des « infox » indétectables si le dispositif tombait entre de mauvaises mains. Très concrètement, quel est le réel danger de ces algorithmes boostés à l'intelligence artificielle (IA), en matière d'infox ?
Franck DeCloquement : Décidément, « les savants fous » californiens aiment à se faire peur tout seul ! A les entendre, et entre des mains naturellement malveillantes, leur dernier-né en date – l’algorithmeGPT2 (un virtuose des mots à les en croire), pourrait en effet aisément semer le trouble dans les esprits et les cœurs. Et ceci, compte tenu de son incroyable capacité à générer de manière autonome des« fake news » crédibles, et autres « avis artificiels convaincants ». Des créations sémantiques ex-nihilo aux conséquences potentiellement dévastatrices et dangereuses en ces temps géopolitiques troublés. Et le tout, sans éveiller le moindre soupçon de la part de leurs potentiels lecteurs, à en croire nos inquiets savants de l’OpenAI. L'objectif avoué de cette organisation, pour encourager la recherche et la réflexion autour d’une « IA bienveillante » (selon l’expression en vogue consacrée), est de « promouvoir et développer une IA à visage humain […] Une IA qui bénéficierait à toute l'humanité ». Vaste programme… A cet effet, Elon Musk s’associait en 2015 à Sam Altman, président de l’incubateur « Y Combinator, ou encore Reid Hoffmann, le fondateur de LinkedIn pour créer l’OpenAI. Des parrains prestigieux qui la dotèrent immédiatement d’une confortable enveloppe d’un milliard de dollars, soutenus par d’autres business angels de la Silicon Valley. Mais aussi de puissants mécènes, à l’image de Reid Hoffmann, le fondateur de LinkedIn ou encore Peter Thiel, l’emblématique créateur de PayPal et Palantir Technologies. Nous y reviendrons plus loin.
Ainsi, les chercheurs d’OpenAI tomberaient des nues en réalisant soudainement le potentiel néfaste de leur algorithme ? A croire que ces mêmes chercheurs auraient oublié la mission première de leur ONG, à savoir : « sensibiliser aux méfaits de l’intelligence artificielle et imaginer cette technologie au service du bien commun ». Alors vraie peur de sachants particulièrement candides ?
Lire la suite
Et bien ça n'est pas réjouissant. Demain on ne pourra plus croire les infos d'aucune source.
Je crois bien que le mot éthique va devenir obsolète
Le membre suivant remercie pour ce message :