
Pourquoi est-ce important: OpenAI a lancé cette semaine GPT-4, une mise à jour de son modèle de langage populaire et de sa technologie qui vise à améliorer la précision et est conçue pour agir comme moteur sous-jacent pour les chatbots, les moteurs de recherche, les tuteurs en ligne et plus encore. GPT-4 est désormais disponible pour les abonnés payants et il existe une liste d’attente pour utiliser le modèle via l’API. De plus, la course à l’IA se poursuit, avec des “startups IA” qui semblent sortir de nulle part et lever des fonds comme s’il n’y avait pas de lendemain. De même, les grandes entreprises technologiques comme Google essaient de montrer qu’elles ne sont pas si loin derrière.
GPT-4 a été en développement pendant la majeure partie de l’année dernière, après la sortie discrète de GPT-3 à la mi-2020, puis ChatGPT a pris d’assaut le monde à la fin de l’année dernière. La récente montée en popularité de ChatGPT et de tout ce qui concerne l’IA a été pour le moins fulgurante. La plateforme d’IA a atteint 100 millions d’utilisateurs en janvier après seulement deux mois de disponibilité publique. OpenAI a utilisé un modèle optimisé pour ChatGPT, qu’ils ont appelé GPT-3.5.
Maintenant GPT-4 s’améliore dessus, et c’est maintenant un grand modèle de langage multimodal (MLLM), ce qui signifie qu’il peut répondre à la fois au texte et aux images. GPT-4 apprend en analysant de grandes quantités de données sur Internet et possède de nombreuses applications pour les entreprises, notamment l’automatisation du travail des assistants et des modérateurs de contenu sur Internet. Cependant, comme son prédécesseur, il a certaines limites humaines qui peuvent encore présenter un défi. Le modèle de langage peut réussir certains tests standardisés, mais il échoue toujours sur des requêtes plus simples.
ð¤¯ð¤¯Alors c’est autre chose.
GPT-4 réussit à peu près tous les tests. Et ça ne passera pas simplement…
examen du barreau : 90 %
LSAT : 88 %
GRE Quantitatif : 80 %, Verbal : 99 %
Chaque AP, SAT… pic.twitter.com/zQW3k6uM6Z– Ethan Mollick (@emollick) 14 mars 2023
Malgré cela, le GPT-4 d’OpenAI a déjà suscité l’intérêt d’entreprises telles que Morgan Stanley, Salesforce, Duolingo et la société d’éducation en ligne Khan Academy. OpenAI et Microsoft ils entretiennent déjà une relation étroite avec le géant du logiciel, qui a investi plus de 13 milliards de dollars dans l’organisation au cours des dernières années et leur a donné les droits exclusifs de licence de la technologie OpenAI. Par exemple, si vous utilisez Bing Chat depuis quelques semaines, vous avez littéralement testé la version bêta de GPT-4 avant la sortie officielle.
OpenAI reconnaît que GPT-4 reste défectueux et limité, mais la mise à jour représente une avancée significative dans ses capacités. Le modèle est plus créatif qu’auparavant et est capable d’apprendre les modèles d’utilisation et le style de texte pour correspondre à la sortie souhaitée. GPT-4 peut comprendre les images, les utiliser comme entrées, les décrire comme du texte ou les contextualiser en fonction de celles-ci.
Imaginez être capable de synthétiser un document que vous avez écrit dans une présentation en quelques secondes.
Une des nombreuses fonctionnalités que nous avons intégrées @magicaltome lecteurs GPT-4. Déjà (très) bientôt. pic.twitter.com/2m3RgKcM06
—Henri Liriani (@hliriani) 14 mars 2023
Bonne nouvelle, nous avons augmenté les limites de déplacement à 15/150. Cela confirme également que le modèle de nouvelle génération que Bing utilise dans Prometheus est bien le GPT-4 OpenAI qu’ils viennent d’annoncer aujourd’hui. Félicitation à @OpenAI équipe. https://t.co/WTVlVCVOyw pic.twitter.com/VA4Z1SDiEG
– Jordi Ribas (@JordiRib1) 14 mars 2023
Bien qu’OpenAI ne souhaite pas expliquer en quoi GPT-4 est réellement différent ou comment il est amélioré en interne pour mieux fonctionner, il est mesurable plus capable car il peut tenir des conversations plus longues et prend environ huit fois plus de texte que ChatGPT, d’environ 3 000 mots dans la version précédente à traiter jusqu’à 25 000 mots dans la dernière révision.
GPT-4 est désormais disponible pour les utilisateurs payants ChatGPT Plus (ou via Bing Chat), tandis que l’accès à l’API est accordé aux développeurs sur la liste d’attente OpenAI.
Les réactions ont été immédiates, consultez certaines des applications les plus intéressantes et des discussions connexes autour de cette annonce pour plus de références :
DoNotPay travaille sur l’utilisation de GPT-4 pour générer un “jugement en un clic” pour poursuivre les robots appelants pour 1 500 $. Imaginez que vous recevez un appel, cliquez sur un bouton, l’appel est transcrit et un procès de 1 000 mots est généré. GPT-3.5 n’était pas assez bon, mais GPT-4 fait extrêmement bien le travail : pic.twitter.com/gplf79kaqG
—Joshua Browder (@jbrowder1) 14 mars 2023
Hé gpt4, fais-moi une application iPhone qui recommandera 5 nouveaux films chaque jour + bandes-annonces + où regarder.
Mes ambitions ont grandi au fur et à mesure que nous avancions pic.twitter.com/oPUzT5Bjzi
— Morten Just (@mortenjust) 15 mars 2023
Nous sommes ravis de vous présenter Virtual Volunteer™, un assistant visuel numérique propulsé par @OpenAImodèle de langage GPT-4. Un volontaire virtuel répondra à toute question sur l’image et fournira une assistance visuelle instantanée en temps réel dans l’application. #Accessibilité #Inclusion #CSUN pic.twitter.com/IxDCVfriGX
– Soyez mes yeux (@BeMyEyes) 14 mars 2023
GPT-4 effectue la découverte de médicaments.
Donnez-lui le médicament actuellement disponible et il pourra :
– Trouver des composés aux propriétés similaires
– Modifiez-les pour vous assurer qu’ils ne sont pas propriétaires
– Les acheter auprès du fournisseur (y compris l’envoi d’un e-mail avec la commande) pic.twitter.com/sWB8HApfgP— Dan Shipper �”� (@danshipper) 14 mars 2023
GPT-4 peut-il encoder tout le jeu pour vous ? Oui, oui, ça peut.
Voici comment j’ai recréé un jeu Snake qui s’exécute dans votre navigateur en utilisant Chat GPT-4 et @Replitavec ZERO connaissance Javascript, le tout en moins de 20 minutes ð§µ pic.twitter.com/jzQzSRIkfz
— Ammaar Reshi (@ammaar) 14 mars 2023