Publié le: 21/05/2025 @ 19:35:25: Par Nic007 Dans "Programmation"

Lire la suite (0 Commentaires)
Publié le: 20/05/2025 @ 13:43:44: Par Nic007 Dans "Programmation"

- Écriture de nouvelles fonctionnalités à partir d'instructions textuelles
- Corriger les bugs automatiquement
- Répondre aux questions sur le fonctionnement du code existant
- Générer des demandes d'extraction prêtes à être examinées
- Exécuter des tests par vous-même jusqu'à ce que tout fonctionne
Au cœur du système se trouve le codex-1 , une version optimisée du modèle OpenAI o3 , formé sur des tâches de programmation du monde réel . Cela lui permet de générer du code qui reflète le style humain , suit les conventions de demande d'extraction et interprète les instructions de manière très précise. OpenAI l'a déjà mis à l'épreuve avec des entreprises comme Cisco , Temporal , Superhuman et Kodiak , qui l'utilisent pour publier des mises à jour plus rapides, optimiser les bases de code existantes et écrire de meilleurs tests. Les résultats semblent prometteurs . Pour l'instant, Codex est disponible pour ceux qui utilisent ChatGPT Pro, Enterprise ou Team . Mais il arrivera bientôt également dans les plans Plus et Edu .
Lire la suite (2 Commentaires)
Publié le: 15/05/2025 @ 14:48:23: Par Nic007 Dans "Programmation"

Le développement de l'hôpital Tsinghua AI Agent se déroulera par phases. Dans un premier temps, le système hospitalier sera construit en s'appuyant sur l'infrastructure complète d'IA de l'université et sur ses compétences interdisciplinaires en ingénierie et en médecine. Il sera mis en œuvre à titre pilote à l'hôpital Tsinghua Changgung de Pékin et à l'hôpital Internet Tsinghua Changgung de Pékin, en commençant par des services tels que la médecine générale, l'ophtalmologie, le diagnostic radiologique et la pneumologie. À l'avenir, l'hôpital vise à créer un écosystème en boucle fermée combinant « IA + Santé + Éducation + Recherche », favorisant ainsi le développement efficace et la répartition équitable de ressources médicales de haute qualité. L'objectif ultime est d'offrir à un plus grand nombre de personnes des services médicaux abordables, durables et de qualité.
Wong Tien Yin a souligné que l'hôpital à agents IA est conçu pour transcender le modèle traditionnel « Hôpital + IA ». Ainsi, les fonctions des agents IA sont intégrées dès la conception, guidées par les besoins des services cliniques. Cette approche aidera les médecins à prendre des décisions précises, améliorera l'efficacité des soins et la satisfaction des patients, réduira les coûts de fonctionnement de l'hôpital et contribuera à remédier à la pénurie de médecins généralistes. À long terme, l'hôpital prévoit de fonctionner comme un hôpital physique doté d'IA, favorisant ainsi une transformation révolutionnaire des modèles de soins. Il servira également de plateforme clé pour la formation médicale à Tsinghua, formant une nouvelle génération de « médecins collaboratifs IA ».
Le Programme clinique universitaire de l'Université Tsinghua s'engage à établir un cadre universitaire collaboratif grâce à la collaboration interdisciplinaire et à l'intégration des ressources des hôpitaux affiliés à Tsinghua, des facultés de médecine de Tsinghua et d'autres facultés de l'Université Tsinghua, ainsi que de partenaires internationaux. En établissant un mécanisme de collaboration interdisciplinaire à long terme, axé sur les besoins cliniques et suivant le modèle « X + Médecine », le Programme clinique universitaire vise à favoriser le partage ouvert et une synergie renforcée entre les domaines des soins cliniques, de l'enseignement et de la recherche, élevant ainsi le niveau de la médecine universitaire. De plus, il vise à insuffler un nouvel élan au développement des disciplines et des talents afin de soutenir les objectifs de la stratégie « Chine en bonne santé 2030 ».
Lire la suite (0 Commentaires)
Publié le: 14/05/2025 @ 12:06:42: Par Nic007 Dans "Programmation"

L'association parle d'une violation manifeste du RGPD , notamment :
- de l’article 5, qui exige le respect de critères tels que la légalité, la régularité et la transparence ;
- de l'article 6, qui établit que le traitement des données doit être fondé sur une base juridique valable , telle que le consentement libre et explicite de l'utilisateur.
La jurisprudence européenne, avec des affaires telles que l’ arrêt Planet49 (C-673/17) , a déjà précisé que le consentement ne peut jamais être présumé ni activé par défaut . Dans ce cas, cependant, Meta AI a été activé automatiquement , sans donner aux utilisateurs de véritables outils pour décider. Et même l’intérêt légitime ne peut justifier le traitement, selon Codacons, car l’ équilibre avec les droits fondamentaux des utilisateurs fait défaut. À cela s’ajoute la manière dont la fonctionnalité a été présentée : non pas comme un choix, mais comme une amélioration de l’expérience . Une décision qui, selon Codacons, cache la finalité de la collecte de données et de la fidélisation , grâce à l'utilisation de techniques persuasives capables d'orienter le comportement des utilisateurs.
Avec le dépôt de la plainte, Codacons a demandé à l' Antitrust et au Privacy Garant d'intervenir pour évaluer si l'activation automatique de Meta AI sur WhatsApp viole le cadre réglementaire européen. En parallèle, il a averti Meta en demandant d' arrêter immédiatement la diffusion de la fonction, au moins jusqu'à ce que trois conditions spécifiques soient garanties :
- Transparence totale sur le fonctionnement de Meta AI et sur le type de données collectées.
- La possibilité de désactiver complètement l'assistant, facilement et définitivement.
- Respect total du Règlement européen sur la vie privée , notamment en matière de consentement.
Le cœur du problème est la liberté de choix : personne ne conteste l’introduction de fonctions basées sur l’intelligence artificielle , mais celles-ci doivent être facultatives , et non imposées automatiquement. Le risque, selon Codacons, est que Meta tente de normaliser l’utilisation de l’IA sans fournir aux utilisateurs le contrôle nécessaire. Cette histoire pourrait devenir un cas symbolique dans le débat plus large sur l’utilisation de l’intelligence artificielle dans les applications que nous utilisons au quotidien. Si l’intervention des autorités donne raison à Codacons, un précédent important pourrait être créé qui obligera d’autres plateformes à adopter des critères plus stricts en termes de consentement éclairé et d’activation de nouvelles fonctionnalités .
Lire la suite (0 Commentaires)
Publié le: 14/05/2025 @ 11:53:28: Par Nic007 Dans "Programmation"

TikTok affirme avoir conçu AI Alive en mettant clairement l'accent sur la sécurité de la communauté . Chaque contenu généré est soumis à plusieurs niveaux de contrôle , avant et après publication. L'image téléchargée, toute invite de texte et la vidéo générée sont toutes analysées pour détecter d'éventuelles violations des directives de la plateforme . Lorsqu'un créateur décide de partager son histoire d'IA, un dernier contrôle de sécurité est effectué . De plus, les utilisateurs peuvent signaler tout contenu problématique , comme n'importe quelle autre vidéo sur l'application. Pour rendre l'utilisation de l'intelligence artificielle claire, TikTok ajoute une étiquette visible et intègre également des métadonnées C2PA dans les vidéos . Ces métadonnées permettent d'identifier l'origine du contenu même s'il est téléchargé et repartagé en dehors de la plateforme . Sur le papier, tout semble être fait dans les règles de l'art, mais il faudra attendre que cette fonctionnalité soit généralisée avant de porter un jugement définitif , également parce que nous ne la voyons pas encore disponible.
Lire la suite (0 Commentaires)
Publié le: 09/05/2025 @ 15:45:35: Par Nic007 Dans "Programmation"

- Déplacer un rendez-vous dans le calendrier ;
- Résumer le dernier email reçu ;
- Vérifiez la météo dans une ville spécifique.
En bref, des fonctions pratiques et concrètes, conçues pour la vraie vie. Et les touches attentionnées pour une utilisation quotidienne ne manquent pas : il y aura une option pour couper la voix de Gemini d'un simple toucher sur l'écran, utile à la salle de sport ou dans les lieux publics.
La mise à jour ne concerne pas seulement les fonctionnalités : l'interface bénéficiera également d'un joli peaufinage. Avec One UI 8 Watch, nous verrons des icônes repensées , plus cohérentes avec le style général du système. Les nouveaux éléments graphiques suivent un schéma en squircle , c'est-à-dire un carré aux coins arrondis, accompagné d'un cadre blanc bien défini . Ce détail améliore le contraste, même si certains utilisateurs peuvent le trouver esthétiquement peu attrayant. Une icône en particulier se démarque parmi les autres : celle de Gemini , déjà visible sur certaines smartwatches mais toujours liée à Google Assistant. Il convient de préciser que, même si l'icône est déjà présente, les fonctionnalités de l'IA ne sont pas encore actives , mais ce n'est qu'une question de temps avant que l'intégration ne soit complète, comme déjà mentionné dans la première partie de l'article.
Ce n’est pas la première fois que Samsung est en avance sur ses intégrations logicielles. Et cette fois encore, avec la One UI 8 Watch , elle pourrait être la première à sortir Gemini sur des montres connectées. Le choix de sauter One UI 7 Watch et de passer directement à la version 8 semble être une décision stratégique pour s'aligner sur la nouvelle direction de l'intelligence artificielle. Samsung travaille en étroite collaboration avec Google sur le front des montres intelligentes depuis des années, et le fait qu'une Galaxy Watch soit la première à recevoir des fonctionnalités d'IA ne devrait pas être une surprise. Pour le moment, les APK divulgués ne sont pas compatibles avec les anciens modèles , mais il est probable que les nouveaux appareils qui sortiront seront conçus pour profiter pleinement des nouvelles fonctionnalités offertes par Gemini. Et avec la prochaine conférence Google I/O 2025 qui approche à grands pas, nous n’aurons pas à attendre longtemps pour voir tout cela en action.
Lire la suite (0 Commentaires)
Publié le: 07/05/2025 @ 14:58:42: Par Nic007 Dans "Programmation"

Comme le rapporte le New York Times , c’est précisément ce processus de réflexion étape par étape qui pourrait devenir un problème. « Les technologies les plus récentes et les plus puissantes – les systèmes de raisonnement d’entreprises comme OpenAI, Google et la start-up chinoise DeepSeek – génèrent davantage d’erreurs, et non moins », explique le journal. À chaque étape de réflexion, le système pourrait introduire de nouvelles erreurs, qui deviendraient alors plus prononcées à mesure que le processus progresse. OpenAI elle-même déclare que des recherches supplémentaires sont nécessaires pour comprendre les causes exactes. « Les hallucinations ne sont pas intrinsèquement plus courantes dans les modèles de raisonnement, bien que nous travaillions activement à réduire les taux d'hallucinations plus élevés que nous avons observés dans o3 et o4-mini », a déclaré Gaby Raila, porte-parole d'OpenAI, au New York Times.
Les conséquences de cette évolution sont de grande portée. Les systèmes d’IA sont de plus en plus utilisés dans des domaines tels que l’éducation, la santé et le gouvernement, des environnements où les erreurs peuvent avoir de graves conséquences. Il existe déjà des rapports d'avocats citant des décisions judiciaires inexistantes générées par ChatGPT. Ce phénomène n’est pas entièrement nouveau dans l’histoire de l’intelligence artificielle. Dès les années 1980, les chercheurs ont observé ce qu'on appelle « l'effet Eliza », du nom d'un ancien chatbot , dans lequel les gens avaient tendance à attribuer au système plus de compréhension qu'il n'en possédait réellement. Les problèmes d’hallucinations actuels pourraient être considérés comme une variante moderne de cet effet – à la différence près que les systèmes eux-mêmes « croient » désormais en savoir plus qu’ils n’en savent réellement.
Lire la suite (0 Commentaires)
Publié le: 02/05/2025 @ 14:42:46: Par Nic007 Dans "Programmation"

- Cartes visuelles avec images, noms, prix et avis.
- Liens d'achat direct , pas de publicité ni d'affiliation.
- Données provenant de sources multiples , non influencées par des sponsors ou des préférences.
Toutes ces fonctionnalités sont disponibles même en étant déconnecté , donc tout le monde peut les utiliser. C'est un moyen rapide de se faire une idée avant un achat, sans passer d'un site à l'autre mais, comme toujours avec l'IA, il faut lui faire confiance , car les réponses seront toujours très sûres, mais cela ne veut pas dire qu'elles sont sans faille.
Une autre nouveauté concerne la vérifiabilité des informations . Lorsque ChatGPT nous donne une réponse, il peut désormais également afficher plusieurs sources pour chaque partie du texte. Ce que cela signifie en pratique : les sources sont mises en évidence au sein de la réponse , et chaque donnée possède une référence précise , de sorte que nous pouvons immédiatement comprendre d'où vient chaque affirmation , et éventuellement aller en savoir plus sur le site concerné. Il s’agit d’un grand pas en avant pour ceux qui souhaitent vérifier des informations ou les utiliser dans des contextes où l’exactitude compte, tout en citant consciencieusement les sources . Mais si nous devions ouvrir le chapitre sur la légitimité des données utilisées pour former ChatGPT maintenant , nous n’en finirions jamais.
Depuis l'année dernière, il est possible de discuter avec ChatGPT sur WhatsApp . Nous pouvons désormais envoyer un message au chatbot pour obtenir des réponses à jour et des résultats sportifs en direct. Pour paraphraser, la fonction de recherche Web aurait dû être intégrée à ChatGPT pour WhatsApp, alors qu'auparavant nous ne pouvions nous appuyer que sur la base de connaissances de ce modèle. Certainement un ajout utile, qui met une fois de plus la version WhatsApp de ChatGPT à égalité avec la version standard et relance le défi à Meta AI , qui vient de gagner sa première application .
Lire la suite (0 Commentaires)
Publié le: 29/04/2025 @ 14:29:22: Par Nic007 Dans "Programmation"

Le système utilise deux modèles différents, selon la version active :
- o3 pour la version complète, disponible uniquement pour les utilisateurs payants
- o4-mini pour la version light, accessible même à ceux qui ne paient pas
Les deux modèles fournissent des réponses structurées , mais le modèle léger produit des textes plus courts. OpenAI garantit que la qualité reste élevée , avec des réponses toujours complètes et bien organisées. La disponibilité et les performances de Deep Research varient selon le type d'abonnement sur ChatGPT. Vous trouverez ci-dessous un aperçu clair :
- Gratuit : 5 recherches/mois (version allégée uniquement)
- Plus et Team : 10 recherches/mois (version complète) + 15 recherches/mois (version light)
- Pro : 125 recherches/mois (version complète) + 125 recherches/mois (version allégée)
- Entreprise : 10 recherches/mois (version complète uniquement)
Une fois la limite de version complète atteinte, ChatGPT passe automatiquement à la version légère, sans plantage ni interruption. Une fois ceux-ci épuisés, il ne reste plus qu'à attendre le mois suivant, alors n'en abusez pas !
Lire la suite (0 Commentaires)
Publié le: 25/04/2025 @ 16:28:39: Par Nic007 Dans "Programmation"

Lire la suite (0 Commentaires)