OpenAI a commencรฉ ร dรฉployer le mode vocal avancรฉ de ChatGPT, permettant aux utilisateurs d’accรฉder pour la premiรจre fois aux rรฉponses audio hyper-rรฉalistes du GPT-4o.
Cette version alpha est disponible pour un petit groupe d’utilisateurs de ChatGPT Plus, avec un dรฉploiement prรฉvu pour tous les utilisateurs Plus ร l’automne 2024.
Lire aussi :
- Comment l’acquisition de Multi par OpenAI va-t-elle amรฉliorer les outils de collaboration ร distance pour les entreprises utilisant ChatGPT ?
- Quels impacts cette suspension de transactions aura-t-elle sur la confiance des utilisateurs et l’avenir des plateformes de cryptomonnaies en Inde ?
Une voix rรฉaliste et controversรฉe
Lors de la prรฉsentation de la voix du GPT-4o en mai, OpenAI a surpris le public par la rapiditรฉ des rรฉponses et la ressemblance frappante avec une voix humaine, en particulier celle de Scarlett Johansson. Aprรจs cette dรฉmonstration, Johansson a niรฉ avoir donnรฉ son consentement et a engagรฉ des avocats pour dรฉfendre son image. Bien qu’OpenAI ait affirmรฉ ne pas avoir utilisรฉ sa voix, la sociรฉtรฉ a ensuite retirรฉ la voix de la dรฉmonstration. En juin, OpenAI a annoncรฉ un retard dans le lancement du mode vocal avancรฉ pour amรฉliorer les mesures de sรฉcuritรฉ.
Fonctionnalitรฉs du Mode Vocal Avancรฉ
Le mode vocal avancรฉ de ChatGPT diffรจre du mode vocal prรฉcรฉdent en utilisant GPT-4o, un modรจle multimodal capable de traiter la conversion voix-texte et texte-voix sans modรจles auxiliaires. Cela permet des conversations avec une latence rรฉduite et des rรฉponses plus naturelles. OpenAI affirme que GPT-4o peut รฉgalement dรฉtecter les intonations รฉmotionnelles dans la voix, telles que la tristesse, l’excitation ou mรชme le chant.
Dรฉploiement progressif et sรฉcuritรฉ
OpenAI a choisi de dรฉployer progressivement la nouvelle fonctionnalitรฉ vocale pour surveiller de prรจs son utilisation. Les utilisateurs sรฉlectionnรฉs recevront une notification dans l’application ChatGPT, suivie d’un e-mail avec des instructions d’utilisation. OpenAI a testรฉ les capacitรฉs vocales de GPT-4o avec plus de 100 รฉquipes externes parlant 45 langues diffรฉrentes. Un rapport sur ces efforts de sรฉcuritรฉ est attendu dรฉbut aoรปt.
Le mode vocal avancรฉ sera limitรฉ ร quatre voix prรฉdรฉfinies โ Juniper, Breeze, Cove et Ember โ crรฉรฉes en collaboration avec des acteurs vocaux rรฉmunรฉrรฉs. La voix Sky, prรฉsentรฉe dans la dรฉmonstration de mai, n’est plus disponible. OpenAI s’efforce d’รฉviter les controverses liรฉes aux deepfakes et a introduit de nouveaux filtres pour bloquer certaines demandes de gรฉnรฉration de musique ou d’autres contenus audio protรฉgรฉs par des droits d’auteur.
En conclusion, le lancement du mode vocal avancรฉ de ChatGPT reprรฉsente une รฉtape importante pour OpenAI, offrant des interactions plus naturelles et immersives. Cependant, la sociรฉtรฉ devra continuer ร naviguer dans les dรฉfis รฉthiques et juridiques associรฉs ร cette technologie innovante.