Publié le: 26/07/2024 @ 13:51:03: Par Nic007 Dans "Programmation"
ProgrammationAlexa, l'assistant vocal d'Amazon, est désormais présente dans des millions de foyers à travers le monde, également grâce aux promotions régulières et multiples sur les enceintes Echo, et au fait qu'Amazon essaie de nous les vendre depuis maintenant 10 ans. Pourtant, justement pour Amazon, ses enceintes intelligentes sont un trou noir mangeur de milliards. Amazon a fait avec l'Echo ce qu'il avait déjà fait avec le Kindle, sans considérer qu'il s'agit de deux types d'appareils très différents. En fait, quiconque achète un lecteur de livres électroniques Amazon a de bonnes chances d’acheter des livres électroniques, générant ainsi des revenus supplémentaires pour l’entreprise. Lorsque Jeff Bezos a lancé ses enceintes intelligentes, l'idée était de les rendre aussi omniprésentes que possible, quitte à les vendre (presque) pour un garage . On s'attendait à ce que les utilisateurs effectuent ensuite des achats via Alexa , mais la plupart n'utilisent que les fonctionnalités gratuites, telles que les alarmes, la météo et les chansons, sans faire d'achats en ligne. Quelqu'un s'est peut-être abonné à Amazon Music , mais malgré cela, selon ce qui a été rapporté par le Wall Street Journal, un énorme trou de 25 milliards de dollars a été généré entre 2017 et 2021. Cela inclut tous les appareils Amazon, donc aussi, à vrai dire. Kindle, Fire TV Stick et autres. Et que se passe-t-il généralement lorsqu’une entreprise subit une telle perte ? On cherche quelqu'un pour payer la facture.

Nous en avions déjà parlé précédemment , donc la nouvelle n'est certainement pas inattendue : Amazon travaille sur une nouvelle version de son assistant vocal, appelée "Remarkable Alexa", qui ne sera pas totalement gratuite . Cette nouvelle Alexa payante comprendra des fonctionnalités avancées et utilisera (évidemment) l’intelligence artificielle générative pour tenter d’offrir quelque chose de plus à l’utilisateur. L'idée serait celle d'un service par abonnement , dont le prix reste cependant encore à définir. Ce qui est sûr c’est que pour compenser tous ces milliards de pertes il faudra beaucoup d’abonnements ! Le lancement serait attendu prochainement, peut-être même très prochainement ( d'ici fin juillet ), même si nous ne sommes pas prêts de mettre la main au feu. De toute façon, la question est simplement de savoir quand, pas si. Cependant, compte tenu du grand nombre d'abonnements numériques qui existent déjà aujourd'hui ( Netflix , Spotify , etc., sans parler d'Amazon Prime lui-même), Alexa doit être vraiment "remarquable" pour justifier un abonnement supplémentaire, et le problème nous dépasse. Cela semble être une solution simple. Cependant, nous sommes également sûrs qu'Amazon essaiera, il ne reste plus qu'à savoir quelle sera la réaction des utilisateurs.
Lire la suite (0 Commentaires)
Publié le: 26/07/2024 @ 13:47:45: Par Nic007 Dans "Programmation"
ProgrammationCes dernières années, nous avons assisté à une explosion de services et d’outils pour avoir l’intelligence artificielle toujours à portée de main, et surtout pour tous. Mais après un certain temps d’utilisation intensive, un risque important apparaît . Le fait que l’IA puisse apprendre d’elle-même pourrait conduire à un effondrement de son apprentissage . En fait, une étude scientifique intéressante a été récemment publiée, qui étudie comment les intelligences artificielles pourraient bientôt entrer dans un cercle vicieux . L'étude que nous avons mentionnée ci-dessus a été menée par un groupe de recherche de l'Université d'Oxford et publiée dans la prestigieuse revue internationale Nature . La recherche étudie comment les intelligences artificielles pourraient s’effondrer si elles commençaient à apprendre par elles-mêmes. C'est un problème qui a certainement été abordé précédemment : l'effondrement dû à un apprentissage incorrect a toujours été l'une des préoccupations de ceux qui s'occupent de modèles génératifs . L’effondrement résulterait d’un apprentissage de l’IA alimenté par le contenu généré par l’IA. Cela conduirait à un cercle vicieux qui, à long terme, nuirait à la précision du contenu généré par l’IA.

Il y a quelques années encore, le Web regorgeait de contenus, certains douteux, d’autres peu crédibles, d’autres encore inexacts. L'élément commun qui caractérisait ces contenus était la source humaine . Aujourd’hui, ce n’est plus le cas : ces dernières années, l’IA a été utilisée à grande échelle par des millions de personnes, et chaque jour le contenu qu’elle génère rebondit sur le web . Ce contenu, de plus en plus riche en apports venus de l’IA, ne profite pas aux nouveaux apprentissages de l’IA. Cela a été prouvé par l’étude que nous avons mentionnée ci-dessus. En fait, les chercheurs ont entraîné l'IA avec du contenu généré par l'IA elle-même, de manière récursive , c'est-à-dire plusieurs fois. Et le résultat a été une détérioration de la qualité du contenu généré cycle après cycle de formation. Au point que l'IA était devenue vraiment peu "intelligente" , générant des textes avec des phrases très répétées , voire arrivant au point de ne plus pouvoir faire la différence entre une église et un lièvre . Cela ouvre la discussion sur un sujet important : ceux qui développent l’IA, et en particulier ceux qui le font à grande échelle comme les grandes entreprises technologiques, doivent adopter une politique de transparence concernant les données qu’ils utilisent pour entraîner leurs modèles génératifs. Cela permettrait de toujours maintenir un certain seuil de qualité pour l’IA, également en termes de formation.
Lire la suite (0 Commentaires)
Publié le: 25/07/2024 @ 14:22:14: Par Nic007 Dans "Programmation"
ProgrammationElon Musk est une figure de plus en plus centrale dans le secteur technologique (et au-delà). Après les voitures électriques , Starlink et les robots humanoïdes, Musk s'est officiellement lancé dans l'intelligence artificielle . Nous apprenons désormais que l’ IA la plus puissante au monde pourrait être celle d’Elon Musk. En effet, ces dernières heures, le propriétaire de xAI , la startup fondée par Elon Musk spécifiquement pour s'occuper de l'intelligence artificielle, a annoncé le début de la formation de ce qu'il a défini comme le cluster de formation en IA le plus puissant au monde. Tout a commencé avec le démarrage des opérations du supercalculateur xAI, situé à Memphis. Ce supercalculateur devrait avoir une puissance sans précédent. En fait, l'équipe xAI a collaboré avec NVIDIA pour déployer 100 000 GPU H100 refroidis par liquide sur un seul RDMA. Et c’est précisément cette configuration qui, selon Musk, devrait conférer au pôle de formation une puissance sans précédent au monde. De toute évidence, ce qui vient de ressortir est le résultat des déclarations de Musk et ne serait pas étayé par des détails techniques particuliers. On ne sait donc pas sur la base de quel paramètre objectif ce pôle de formation en IA a été défini comme le plus puissant au monde. Et certains doutes pourraient surgir, compte tenu également des récents problèmes survenus avec la formation de Grok , le chatbot xAI.

Dans tous les cas, toute cette puissance a besoin d’énergie . Et si l’on parle de l’IA la plus puissante au monde, on en déduit que l’énergie nécessaire sera énorme. Les habitants de Memphis , où le supercalculateur xAI a été installé pour fonctionner à puissance maximale, se posent également cette question . En fait, on se demande si les besoins électriques du nouveau xAI pourraient provoquer une crise du système électrique local . Les autorités ont indiqué que xAI s'est implanté dans des bâtiments existants, connectés au réseau électrique selon les besoins commerciaux standards. Ce qui n’est peut-être pas suffisant compte tenu des activités de xAI. Pour cela, l'entreprise disposerait d'un plan de secours, composé d'une flotte de 14 générateurs de gaz naturel VoltaGrid qui fourniraient une énergie supplémentaire au cluster informatique de Memphis. En attente d'un accord avec la compagnie d'électricité locale.
Lire la suite (0 Commentaires)
Publié le: 24/07/2024 @ 14:46:42: Par Nic007 Dans "Programmation"
ProgrammationLlama 3.1 est un grand modèle d'IA dont la principale caractéristique est qu'il est open source , contrairement à des concurrents tels que le GPT-4o d'OpenAI ou le Claude 3.5 Sonnet d'Anthropic . Mais pas seulement : il s’agit du plus grand modèle d’IA open source du marché, capable de véritablement concurrencer les modèles mentionnés ci-dessus. Formé sur plus de 16 000 GPU NVIDIA H100, un investissement à lui seul valant des centaines de millions de dollars, Llama 3.1 propose jusqu'à 128 Ko de fenêtre contextuelle , prend en charge huit langues, dont le français et, dans sa plus grande version, est équipé de 405 milliards de paramètres (à titre de comparaison , Llama 3 n'en compte « que » 70 milliards, dans sa plus grande version, et 8 milliards dans la plus petite). Un géant du secteur de l'IA, à tel point que Mark Zuckerberg s'est déclaré convaincu que dans les mois à venir, il contribuera à pousser l'utilisation du chatbot Meta AI au point de dépasser celle de ChatGPT avec ses 100 millions d'utilisateurs. Des constats forts, mais appuyés par les énormes investissements et les benchmarks partagés par l'entreprise (à prendre pour ce qu'ils sont, en tant que propriétaires). Llama 3.1 est capable de surpasser GPT-4o et Claude 3.5 Sonnet dans certains contextes, mais le gros avantage est que selon Meta, il coûte la moitié du prix des modèles en production mentionnés ci-dessus, et il est open source . De plus, Llama 3.1 a également été testé pour la première fois pour des cas d'utilisation potentiels en matière de biochimie et de cybersécurité . Llama 3.1 peut s'intégrer à une API de moteur de recherche pour « récupérer des informations sur Internet sur la base d'une requête complexe et appeler plusieurs outils successivement pour accomplir vos tâches ». Par exemple, vous pouvez faire une requête au modèle, qui récupérera des données sur le Web et pourra même générer du code Python puis l'exécuter.

Meta pense que Llama 3.1 permettra de nouvelles applications et paradigmes de modélisation, y compris la génération de données synthétiques pour permettre l'amélioration et la formation de modèles plus petits. Une curiosité : vous avez peut-être remarqué que Gemini est absent des comparaisons. Selon une déclaration à The Verge , Meta n'a pas réussi à utiliser l'API de Google pour reproduire ses résultats, elle ne l'a donc pas inclus dans les comparaisons. Mais sur quoi Llama 3.1 est- il formé ? C'est un point assez obscur. La société a déclaré avoir adopté une procédure post-formation itérative, dans laquelle chaque cycle utilise un réglage fin supervisé et une optimisation directe des préférences. Cela nous aurait permis de créer des données synthétiques de très haute qualité pour chaque tour et d'améliorer les performances de chaque capacité. Cependant, pour la formation, il n'a pas été révélé quelles données ont été utilisées, ce qui est assez courant pour les entreprises qui créent des modèles d'IA. Il est désormais clair qu’Internet ne suffit plus à former des modèles, et de plus en plus d’entreprises se tournent vers les données synthétiques (une des applications possibles de Llama 3.1). Cependant, selon certains, il s’agit d’une tactique visant à retarder l’inévitable assaut des poursuites pour violation du droit d’auteur . Lors du lancement, Zuckerberg a expliqué pourquoi ces énormes investissements pour un projet open source : au fond, il est convaincu que cela permettra d'économiser des milliards de dollars à l'avenir. Selon le fondateur de Facebook, les modèles d'IA open source surpasseront les modèles propriétaires , un peu comme Linux est devenu le système d'exploitation open source qui alimente la plupart des téléphones, serveurs et appareils du marché.

Zuckerberg fait la comparaison avec son Open Compute Project , le système de centre de données de Meta, qui, selon lui, a permis à l'entreprise d'économiser des milliards de dollars en permettant à d'autres entreprises d'aider à améliorer et à standardiser le code. Il en va de même pour les modèles d'IA, et pour cette raison, Llama 3.1 constituera un tournant dans l'industrie : à partir de maintenant, « la plupart des développeurs commenceront à utiliser principalement l'open source ». Pour lancer Llama 3.1, Meta travaille avec plus de deux douzaines d'entreprises, dont Microsoft, Amazon, Google, NVIDIA et Databricks, pour aider les développeurs à implémenter leurs propres versions. Llama 3.1 arrive cette semaine sur Meta AI, l'assistant IA de Meta. Llama 3.1 sera d'abord accessible via WhatsApp et le site Meta AI aux États-Unis, suivi par Instagram et Facebook dans les semaines à venir. Nous vous rappelons que pour le moment Meta AI n'est pas encore disponible en Europe, mais vous pouvez y accéder en utilisant un VPN et en configurant le serveur aux États-Unis. Meta a souligné que Llama 3.1 sera disponible gratuitement, mais pour un nombre limité (on n'a pas dit combien) de demandes, puis il passera à Llama 3. Alternativement, vous pouvez le télécharger depuis Hugging Face .
Lire la suite (0 Commentaires)
Publié le: 19/07/2024 @ 14:13:07: Par Nic007 Dans "Programmation"
ProgrammationOpenAI publie un modèle d'intelligence artificielle plus léger et plus réactif , avec lequel les développeurs pourront travailler pour créer des solutions et des plateformes. Il s'agit du GPT-4o Mini et coûtera bien moins cher que ses « grands frères ». Cependant, vous ne devrez pas renoncer aux performances : selon l'entreprise, en effet, ce modèle sera plus puissant que le GPT-3.5. Grâce à GPT-4o Mini, les développeurs pourront créer diverses solutions, sans avoir besoin de choisir des modèles d'IA moins chers, tels que Gemini 1.5 Flash de Google ou Claude 3 Haiku d'Anthropic. En ce sens, les déclarations d' Olivier Godement, responsable du développement API d'OpenAI, sont claires : « GPT-4o Mini permettra à OpenAI de rendre l'IA plus accessible aux personnes. C'est un aspect fondamental si nous voulons que l'IA apporte des bénéfices dans tous les secteurs. dans chaque application". Les utilisateurs de ChatGPT avec les forfaits Free, Plus et Team peuvent déjà profiter de GPT-4o Mini à la place de GPT-3.5 Turbo, tandis que les utilisateurs Enterprise y auront accès la semaine prochaine. À cet égard, Godement a précisé que GPT-3.5 sera, à un moment donné, retiré de l'API.

Le nouveau modèle d'IA, plus léger, prend en charge le texte et la vision dans l'API, la société indiquant clairement qu'elle sera bientôt capable de gérer toutes les entrées et sorties multimodales telles que l'audio et la vidéo. Grâce à ces capacités, GPT-4o Mini apparaîtra comme un assistant virtuel plus capable de comprendre un itinéraire de voyage et ainsi de fournir des suggestions adéquates. Le nouveau modèle a obtenu un score de 82 % au Measurement Massive Multitask Language Understanding (MMLU), qui est le test de référence composé de 16 000 questions à choix multiples sur 57 matières universitaires. À titre de comparaison, sur le même test, GPT-3.5 a obtenu un score de 70 %, tandis que GPT-4o a obtenu un score de 88,7 % (Google, cependant, a affirmé que Gemini Ultra avait obtenu un score de 90 %). Les autres concurrents, comme Claude 3 Haiku et Gemini 1.5 Flash ont obtenu respectivement 75,2% et 78,9%. Il convient toutefois de préciser que les chercheurs ne sont pas très convaincus par ce test puisque le monde dans lequel il est administré varie d'une entreprise à l'autre. Tout cela rend un peu complexe la comparaison des différents résultats obtenus.

OpenAI a permis à la startup technologique financée Ramp d'utiliser son nouveau modèle. L'objectif était de créer un outil capable d'extraire les données de dépenses des reçus. De plus, le même modèle a été exploité par Superhuman , un client de messagerie, pour créer une fonctionnalité de suggestion automatique dédiée aux réponses par courrier électronique. Enfin, Godement a également expliqué pourquoi OpenAI a mis autant de temps à développer ce type de modèle d'IA, précisant qu'il s'agit d'une "pure priorité" , ce qui signifie que l'entreprise s'est d'abord concentrée sur la création de modèles plus performants, comme le GPT-4, qui nécessitent " beaucoup de monde et d'efforts de traitement".
Lire la suite (0 Commentaires)
Publié le: 15/07/2024 @ 15:07:41: Par Nic007 Dans "Programmation"
ProgrammationUn assistant personnel pour tous vos achats sur Amazon , ce qui était seulement imaginable il y a quelques années, est désormais une réalité, du moins pour les utilisateurs américains. Rufus arrive pour tout le monde, l'assistant IA d'Amazon . En effet, ces dernières heures, nous avons reçu des nouvelles des débuts officiels de Rufus, le nom qu'Amazon a donné à son assistant IA pour faire du shopping sur son immense plateforme de commerce électronique. Rufus base son fonctionnement sur des informations relatives aux listes de produits Amazon , aux avis et aux questions et réponses de la communauté , ainsi que sur certaines informations provenant du Web. De cette manière, l'assistant traite des réponses de plus en plus précises pour les utilisateurs d'Amazon qui lui demandent de l'aide. Rufus est capable de répondre à toutes les questions auxquelles les utilisateurs d'Amazon peuvent penser. Regardons quelques exemples concrets :

- Demandez conseil concernant un produit spécifique à acheter. De la série « Cette machine à café que je souhaite acheter est-elle facile à entretenir ? »
- Demandez conseil sur le produit à acheter dans une catégorie spécifique , peut-être pour voir quels sont les meilleurs modèles pour le produit spécifique que vous avez l'intention d'acheter.
- Demandez une liste de produits qui pourraient être utiles pour organiser une pool party.
- Demandez des mises à jour ou d'autres détails concernant l'état de votre commande.

Mais cela ne s'arrête pas là, car Rufus est automatiquement activé même en accédant à une seule page produit. Par exemple, Rufus vous proposera des questions judicieuses lorsque vous parcourez une page de montre intelligente, comme la durée de vie de la batterie. Et pour couronner le tout, Rufus est également en mesure de fournir des réponses concernant des questions allant au-delà des produits sur Amazon . Bref, vous l'aurez compris, Rufus se situe justement au niveau des chatbots à intelligence artificielle les plus actuels , et est certainement spécialisé pour les produits de la plateforme. Il pourrait remplacer cette personne de la famille (qui peut être vous) à qui on demande constamment des conseils sur les meilleurs produits technologiques à acheter sur Amazon.

Comme mentionné dès le titre, Rufus n'est actuellement disponible que pour les utilisateurs américains . Au début de l'année, il était distribué à un petit nombre d'utilisateurs aux États-Unis, et maintenant il arrive à tout le monde. Il sera possible de l'utiliser directement depuis l'application Amazon Shopping. Quand arrivera-t-il en Europe ? Pour le moment, nous n’avons aucune information officielle à ce sujet. Cela pourrait arriver dans la dernière partie de l’année, ou directement dans les premiers mois de 2025.
Lire la suite (0 Commentaires)
Publié le: 11/07/2024 @ 14:00:31: Par Nic007 Dans "Programmation"
ProgrammationGoogle remplace Assistant par Gemini , Apple a présenté Apple Intelligence , qui intègre même ChatGPT à Siri, et que fait Samsung avec Bixby ? Lors de l' événement Unpacked , au cours duquel les nouveaux Galaxy ont été lancés , le géant coréen a voulu rassurer tout le monde : d'ici un an, son assistant vocal sera mis à jour avec de nouvelles fonctions d'intelligence artificielle générative . Avec le lancement du Galaxy S24 en janvier, nous avons constaté une grande importance accordée aux fonctionnalités d'IA , cependant, tout le monde s'attendait à ce que ces fonctions concernent également Bixby, l'assistant vocal de la société coréenne , et cela ne s'est pas produit. En réalité, Samsung n’a pas chômé. En novembre 2023, la société de Séoul a annoncé son grand modèle de langage Samsung Gauss , qui se décline en trois versions : Language, un modèle dédié à la compréhension du langage humain, Code, qui sert à créer du code de programmation, et Image, qui permet de créer et modifier des images. En avril, CNBC a appris que Samsung travaillait sur une mise à jour pour Bixby, et lors de l'événement Unpacked d'hier , le patron de Samsung MX, TM Roh, a déclaré à CNBC que la société mettrait à jour Bixby avec des fonctionnalités d'IA générative d'ici la fin de l'année. Non seulement cela, mais le responsable a confirmé que les appareils Samsung seront livrés avec plusieurs assistants vocaux , afin que les utilisateurs puissent choisir entre Bixby et Gemini ou Google Assistant.

Il existe en fait déjà des fonctionnalités d'IA générative dans Bixby, du moins sur les appareils de dernière génération de Samsung, mais elles ne sont pas du tout comparables à ChatGPT. Un Bixby doté de fonctionnalités d'IA avancées pourrait être une aubaine notable pour les utilisateurs de Galaxy , en fonction du type d'implémentation et de sa capacité à interagir avec le système ou des applications tierces. Et si l'on ne sait pas encore quelles seront les fonctions de l'IA de Bixby , une chose est sûre : elle sera meilleure pour comprendre les commandes vocales en langage naturel . Et surtout, c'est la première fois que Samsung confirme quelque chose à ce sujet, révélant même un timing de lancement . Et cela nous amène au Galaxy S25 . TM Roh a déclaré que la mise à jour de Bixby arriverait d'ici la fin de l'année , mais est-il possible qu'une innovation aussi importante ne soit pas introduite avec un nouvel appareil ? Certains observateurs pensent que Samsung annoncera le nouveau Bixby avec IA plus tard cette année, puis le lancera aux côtés de la série Galaxy S25
Lire la suite (0 Commentaires)
Publié le: 01/07/2024 @ 17:01:03: Par Nic007 Dans "Programmation"
ProgrammationNous sommes désormais entourés de services d’intelligence artificielle , accessibles à tous même sur smartphones et tablettes. Dans cette jungle, Amazon veut aussi avoir son mot à dire avec Alexa AI . Alexa AI devrait bientôt arriver en tant que nouveau chatbot IA d'Amazon , évidemment basé sur l'assistant numérique qu'Amazon lance depuis plusieurs années maintenant. Ces dernières heures, de nouveaux détails sont apparus sur le service, notamment sur son coût . En fait, Reuters rapporte que la nouvelle Alexa AI pourrait coûter environ 5 ou 10 dollars par mois . Un prix qui n'est certainement pas négligeable , étant donné qu'il s'agira d'un supplément par rapport à tous les autres services d'Amazon. Les voix qui souhaitaient qu'Alexa AI soit intégrée à l' abonnement Amazon Prime , peut-être avec un petit supplément, seraient donc exclues. Alexa AI devrait être dotée de fonctionnalités basées sur l'IA typiques de services similaires . Il s'agit en effet de compétences dans la rédaction de textes et d'e-mails, de gestion de commandes en ligne, mais aussi d'une interaction plus fluide et plus rapide avec le service d'assistance numérique basée sur des commandes vocales .

Comme cela ressortait des rumeurs précédentes, le nouveau service Alexa AI devrait être basé sur un modèle de langage avancé (LLM). Le fait qu'Amazon entende le rendre payant ne nous surprend pas , surtout au vu de ce que font déjà ses concurrents du secteur, comme Google et OpenAI. L'hypothèse est qu'Amazon entend donc augmenter ses bénéfices avec Alexa AI, en se concentrant sur l'expansion substantielle du service en s'appuyant sur les utilisateurs qui utilisent déjà Alexa quotidiennement sur les appareils Echo. Nous savons encore peu de choses sur le calendrier de lancement . Des rumeurs circulant en ligne indiquent qu'Amazon aurait fixé au mois d'août la date limite pour le lancement d'Alexa AI. Nous ne nous attendons pas à le voir en Europe tout de suite , tout comme Apple Intelligence le fera .
Lire la suite (0 Commentaires)
Publié le: 28/06/2024 @ 14:46:46: Par Nic007 Dans "Programmation"
ProgrammationÀ mesure que les chatbots IA entrent dans nos vies, le besoin de savoir quand ils rapportent des informations vraies ou inventées, ou s'ils « hallucinent » devient de plus en plus pressant. Les développeurs ont mis en place plusieurs solutions, telles que des citations, pour vérifier la source d'une actualité ou, dans le cas de Gemini, une double vérification , qui permet au chatbot d'évaluer s'il existe sur le Web du contenu qui confirme sa réponse. Désormais, ChatGPT dispose également d'un outil pour vérifier la véracité de ses déclarations, au moins lors de l'écriture de code : CriticGPT. Annoncé hier par OpenAI, CriticGPT est un nouveau modèle basé sur GPT-4 qui analyse le code créé par ChatGPT et indique les erreurs potentielles, permettant ainsi aux humains de repérer plus facilement les problèmes qui autrement pourraient passer inaperçus. Le modèle sert d'assistant d'IA pour les humains qui examinent le code de programmation généré par ChatGPT, dans le but de faire en sorte que les systèmes d'IA se comportent comme les humains l'attendent. Ce processus, appelé « alignement », se produit grâce à un outil appelé « Reinforcement Learning from Human Feedback » (RLHF), qui est basé sur la comparaison de différentes réponses ChatGPT lorsqu'elles sont comparées et évaluées.

Bien que CriticGPT soit similaire à ChatGPT, la différence notable est que pour le former, les chercheurs lui ont montré un ensemble de données contenant des exemples de code avec des bogues intentionnellement insérés, lui apprenant à reconnaître et à signaler diverses erreurs de codage. Avant de le publier, OpenAI a comparé les résultats d'analyses humaines du code ChatGPT avec et sans le modèle « critique ». Le résultat était réconfortant : 63 % des annotateurs préféraient les critiques du modèle à celles formulées par ChatGPT lui-même, rapportant comment CriticGPT rédigeait des critiques plus complètes, produisait moins de critiques inutiles, générait moins de faux positifs et réduisait globalement les taux d' hallucinations. Les chercheurs ont également créé une nouvelle technique appelée Force Sampling Beam Search (FSBS), qui aide CriticGPT à rédiger des critiques plus détaillées du code, lui permettant d'ajuster sa précision et d'agir efficacement sur les hallucinations. Le tout de manière dynamique selon les besoins.

Selon les rapports, CriticGPT pourrait être utile non seulement dans la révision du code . Les chercheurs ont appliqué le modèle à un sous-ensemble de données de formation ChatGPT qui avaient déjà été jugées valides par des annotateurs humains. Étonnamment, CriticGPT a identifié des erreurs dans 24 % de ces cas, erreurs qui ont ensuite été confirmées par des évaluateurs humains. OpenAI pense que cela démontre le potentiel du modèle à être utilisé pour des tâches plus générales , où il se peut qu'il n'y ait pas d'évaluation humaine minutieuse. Dans tous les cas, le taux d’erreur de 24 % dans les données utilisées pour la formation ChatGPT devrait être un signal d’alarme en soi. Cela signifie que près d’ un point de données sur quatre utilisé pour entraîner ChatGPT contient une erreur. CriticGPT est certes une solution prometteuse, mais comme tous les modèles d’IA elle pose des problèmes. Tout d’abord, il a été formé sur des réponses ChatGPT relativement courtes, ce qui peut le rendre inadéquat pour évaluer des tâches complexes. De plus, même s'il a de faibles taux d'hallucinations , cela ne veut pas dire qu'il en est exempt, et en termes absolus, ils restent très élevés. OpenAI affirme que les annotateurs font des erreurs d'étiquetage après avoir vu des hallucinations de modèles, mais aucune donnée n'a été partagée à ce sujet.

De plus, l’équipe de recherche reconnaît que CriticGPT est plus efficace pour identifier les erreurs pouvant être trouvées à un emplacement spécifique du code. Dans le monde réel, les erreurs peuvent souvent être réparties sur plusieurs parties d’une réponse, ce qui présente un défi qui n’a pas encore été analysé et qui sera résolu dans les futures itérations du modèle. À l'avenir, OpenAI prévoit d'intégrer des modèles similaires à CriticGPT dans son pipeline d'étiquetage RLHF , fournissant à ses formateurs une assistance en matière d'IA. Néanmoins, pour certains experts, certaines réponses peuvent être trop difficiles à évaluer, même avec l’aide de CriticGPT, ce qui serait contre-productif. En fait, la crainte concerne les faux négatifs , c'est-à-dire les problèmes qui pourraient passer inaperçus et qui constituent l'un des plus grands risques du machine learning .
Lire la suite (0 Commentaires)
Publié le: 27/06/2024 @ 13:51:30: Par Nic007 Dans "Programmation"
ProgrammationQu'il s'agisse de Scarlett Johansson ou d'autre chose, l'une des fonctionnalités les plus étonnantes et futuristes de ChatGPT doit attendre. Nous parlons du nouveau mode vocal mis à jour, annoncé en mai avec le nouveau modèle GPT-4o et qui vous permettrait de parler de manière naturelle avec le chatbot IA le plus célèbre au monde, comme dans un film . Mais que s'est-il passé? Retraçons brièvement les étapes. En mai, OpenAI a annoncé le nouveau modèle GPT-4o , qui, parmi de nombreuses améliorations, propose un nouveau mode vocal capable de permettre aux utilisateurs de parler au chatbot comme s'ils conversaient avec une personne réelle . Tout le monde, y compris Sam Altman, a immédiatement pensé au film Her, dans lequel le co-protagoniste était une IA dotée d'une interface vocale capable de ressentir, et surtout de susciter, des émotions. En grande partie grâce à la voix extrêmement convaincante de l'actrice Scarlett Johansson . Vous connaissez tous la suite . L'actrice s'y est opposée mais OpenAI a quand même introduit un modèle vocal, appelé Sky, avec un timbre très similaire au sien. Johansson a intenté une action en justice et OpenAI, malgré les refus, a retiré Sky.

Entre-temps, le nouveau modèle avancé aurait dû arriver fin juin pour les premiers tests de la version alpha , mais OpenAI n'est visiblement pas encore prêt. L'entreprise a en effet publié un article sur X dans lequel elle explique avoir besoin « d'un mois de plus » avant de le lancer. L'entreprise a expliqué qu'elle travaille à améliorer les « capacités du modèle à détecter et rejeter certains contenus » et « l'expérience utilisateur », ainsi que l'infrastructure pour permettre à des millions de personnes d'obtenir les réponses en temps réel. À ce stade, la nouvelle feuille de route prévoit que le modèle arrive en version alpha fin juillet , puis parvienne aux utilisateurs de ChatGPT Plus à l'automne, mais avec l'avertissement qu'il peut y avoir des retards si la fonction ne respecte pas les exigences de sécurité et de fiabilité. Inutile de dire que de nombreux utilisateurs ont exprimé leur mécontentement sur X.
Lire la suite (0 Commentaires)
Informaticien.be - © 2002-2024 AkretioSPRL  - Generated via Kelare
The Akretio Network: Akretio - Freedelity - KelCommerce - Votre publicité sur informaticien.be ?