OpenAI lance un outil de clonage vocal, mais le juge trop risqué pour une diffusion publique | Technologie


Le créateur de ChatGPT affirme que Voice Engine peut reproduire la voix d’une personne sur la base d’un échantillon audio de 15 secondes.

OpenAI a dévoilé un outil permettant de cloner les voix des citoyens, mais retient sa diffusion publique en raison de préoccupations concernant une éventuelle utilisation abusive au cours d’une année électorale clé.

Voice Engine peut reproduire la voix d’une personne sur la base d’un échantillon audio de 15 secondes, selon un article de blog OpenAI démontrant l’outil.

Mais le créateur de ChatGPT « adopte une approche prudente et informée » de la technologie et espère entamer un dialogue sur « le déploiement responsable des voix synthétiques », a déclaré la société dans le billet de blog publié vendredi.

“Nous reconnaissons que générer un discours qui ressemble à la voix du peuple comporte de sérieux risques, qui sont particulièrement importants en période d’élections”, a déclaré la start-up basée à San Francisco.

“Nous collaborons avec des partenaires américains et internationaux du gouvernement, des médias, du divertissement, de l’éducation, de la société civile et au-delà pour garantir que nous intégrons leurs commentaires au fur et à mesure de notre construction.”

Nous partageons nos enseignements à partir d’un aperçu à petite échelle de Voice Engine, un modèle qui utilise la saisie de texte et un seul échantillon audio de 15 secondes pour générer une parole naturelle qui ressemble beaucoup à l’orateur d’origine. https://t.co/yLsfGaVtrZ

– OpenAI (@OpenAI) 29 mars 2024

OpenAI a déclaré qu’elle prendrait « une décision plus éclairée » concernant le déploiement de la technologie à grande échelle, sur la base de tests et d’un débat public.

La société a ajouté qu’elle estime que la technologie ne devrait être déployée qu’avec des mesures garantissant que « l’orateur d’origine ajoute sciemment sa voix au service » et empêche la « création de voix trop similaires à celles de personnalités importantes ».

L’utilisation abusive de l’IA est devenue une préoccupation majeure à l’approche des élections de cette année dans des pays représentant environ la moitié de la population mondiale.

Les électeurs de plus de 80 pays, dont le Mexique, l’Afrique du Sud et les États-Unis, se rendront aux urnes en 2024, qui a été qualifiée de plus grande année électorale de l’histoire.

L’influence de l’IA sur les électeurs a déjà fait l’objet d’un examen minutieux lors de plusieurs élections.

L’ancien Premier ministre pakistanais Imran Khan, emprisonné, a utilisé des discours générés par l’IA pour attirer ses partisans à l’approche des élections législatives du pays en février.

En janvier, un agent politique du candidat de longue date à la présidentielle américaine, Dean Phillips, a lancé un appel automatisé se faisant passer pour le président américain Joe Biden, exhortant les électeurs à ne pas voter lors des primaires du Parti démocrate du New Hampshire.

OpenAI a déclaré avoir mis en œuvre plusieurs mesures de sécurité pour ses partenaires testant Voice Engine, “y compris le filigrane pour retracer l’origine de tout audio généré par Voice Engine, ainsi qu’une surveillance proactive de la façon dont il est utilisé”.



Source link