Lors de sa première conférence développeur à San Francisco (OpenAI Dev Day), OpenAI a révélé que ChatGPT compte maintenant 100 millions d’utilisateurs actifs par semaine. C’est énorme 😮
Lors de cette conférence, OpenAI a annoncé plusieurs avancées importantes. Les annonces sont pas mal, voici ce qui va changer :
- GPT-4 Turbo : OpenAI a dévoilé GPT-4 Turbo, une version améliorée et moins coûteuse de son modèle phare de génération de texte. Cette version améliorée de GPT-4 est conçue pour être plus puissante tout en étant moins onéreuse. Cela signifie que les développeurs et les entreprises pourront utiliser des modèles d’intelligence artificielle plus avancés à un coût réduit, ce qui pourrait démocratiser l’accès à cette technologie de pointe.
- GPTs Personnalisés : OpenAI a également introduit les GPTs, qui permettent à quiconque de construire sa propre version du système d’IA conversationnelle. Ils prévoient de lancer un marché, le « GPT Store », où les utilisateurs pourront publier et potentiellement monétiser leurs versions du système. Avec les GPTs personnalisés, OpenAI ouvre la porte à la personnalisation des systèmes d’IA conversationnels. Les utilisateurs pourront construire et adapter leurs propres versions de ChatGPT selon leurs besoins spécifiques. De plus, avec le futur GPT Store, ils pourront partager et monétiser leurs créations, offrant ainsi une nouvelle plateforme pour l’innovation et le commerce des modèles d’IA personnalisés.
- API DALL-E 3 et Assistants : La société a annoncé que DALL-E 3, son modèle de génération d’images à partir de texte, est maintenant disponible via une API. OpenAI lance donc une nouvelle API pour aider les développeurs à créer des « expériences d’agents » dans leurs applications, en utilisant les modèles et outils d’IA génératifs d’OpenAI. L’API DALL-E 3 permet aux développeurs d’intégrer des capacités de création d’images à partir de descriptions textuelles dans leurs applications. Cela ouvre des possibilités créatives dans des domaines comme le design graphique automatique ou l’illustration. L’API Assistants est une autre initiative visant à permettre la création d’assistants numériques plus intelligents et contextuellement conscients, capables d’accéder à des connaissances externes et d’utiliser les modèles d’IA génératifs d’OpenAI pour accomplir diverses tâches.
- API de Synthèse Vocale : Un API de synthèse vocale a été introduit, offrant six voix prédéfinies et deux variantes de modèle d’IA génératif. Cette API offre une gamme de voix prédéfinies que les développeurs peuvent utiliser pour donner vie à leurs applications avec une parole synthétique. Cela peut être particulièrement utile pour la création d’assistants virtuels, de livres audio, ou même pour ajouter une dimension auditive à des applications qui étaient auparavant silencieuses. Les deux variantes de modèles d’IA génératifs indiquent que les développeurs auront des options pour choisir le niveau de complexité et la qualité de la synthèse vocale selon leurs besoins.
Ces annonces indiquent un pas en avant significatif pour OpenAI et ses utilisateurs, en augmentant l’accessibilité et la personnalisation de leurs outils d’IA, et en renforçant l’intégration de leurs modèles dans les applications tierces. Vous en pensez quoi ? L’IA va dans la bonne direction ?
Si l’article vous a plu et si vous aimez mon travail, vous pouvez faire un don en suivant ce lien :