Publié le: 21/05/2025 @ 19:35:25: Par Nic007 Dans "Programmation"
ProgrammationOpenAI va acquérir la startup spécialisée dans les appareils d'IA, cofondée par Jony Ive, vétéran d'Apple Inc., dans le cadre d'une transaction de près de 6,5 milliards de dollars en actions. L'entreprise s'associe ainsi au designer légendaire pour se lancer dans le secteur du hardware. Cet achat, le plus important de l'histoire d'OpenAI, permettra à l'entreprise de se doter d'une unité dédiée au développement d'appareils basés sur l'IA. L'acquisition de la start-up confidentielle, nommée io, permettra également de s'assurer les services d'Ive et d'autres anciens designers Apple, à l'origine de produits emblématiques comme l'iPhone. Pour le designer d'origine britannique, cette acquisition marque un retour remarqué dans un secteur des technologies grand public dont il a été l'un des pionniers. Aux côtés de Steve Jobs pendant des années, il a façonné l'apparence et la convivialité du smartphone moderne, ainsi que de l'iPod, de l'iPad et de l'Apple Watch. Il a quitté Apple en 2019
Lire la suite (0 Commentaires)
Publié le: 20/05/2025 @ 13:43:44: Par Nic007 Dans "Programmation"
ProgrammationOpenAI a depuis longtemps dépassé le simple développement de modèles linguistiques : l’entreprise se concentre de plus en plus sur des agents intelligents capables d’effectuer des tâches pour nous. Après Operator, capable de naviguer sur le Web de manière autonome, et Deep Research, conçu pour les recherches en ligne complexes, voici maintenant Codex , le premier agent conçu pour ceux qui écrivent du code. Mais le Codex ne se contente pas de suggérer des extraits ou des fonctions complètes. C'est quelque chose de plus avancé : il peut écrire des fonctionnalités entières , corriger des bugs, proposer des modifications de code et tout tester par lui-même. Son objectif ? Assumer les tâches les plus répétitives de la programmation pour nous laisser plus de temps pour tout le reste. Codex est le nouvel agent d’OpenAI conçu pour les développeurs de logiciels, mais ce n’est pas seulement un assistant de terminal. Il s'agit d'un système cloud capable de gérer plusieurs tâches en parallèle , dans des environnements séparés et déjà configurés avec le code de l'utilisateur. Le but ? Automatisez toutes ces phases ennuyeuses et répétitives qui ralentissent le développement.

- Écriture de nouvelles fonctionnalités à partir d'instructions textuelles
- Corriger les bugs automatiquement
- Répondre aux questions sur le fonctionnement du code existant
- Générer des demandes d'extraction prêtes à être examinées
- Exécuter des tests par vous-même jusqu'à ce que tout fonctionne

Au cœur du système se trouve le codex-1 , une version optimisée du modèle OpenAI o3 , formé sur des tâches de programmation du monde réel . Cela lui permet de générer du code qui reflète le style humain , suit les conventions de demande d'extraction et interprète les instructions de manière très précise. OpenAI l'a déjà mis à l'épreuve avec des entreprises comme Cisco , Temporal , Superhuman et Kodiak , qui l'utilisent pour publier des mises à jour plus rapides, optimiser les bases de code existantes et écrire de meilleurs tests. Les résultats semblent prometteurs . Pour l'instant, Codex est disponible pour ceux qui utilisent ChatGPT Pro, Enterprise ou Team . Mais il arrivera bientôt également dans les plans Plus et Edu .
Lire la suite (2 Commentaires)
Publié le: 15/05/2025 @ 14:48:23: Par Nic007 Dans "Programmation"
ProgrammationLe matin du 26 avril, l'Université Tsinghua a organisé une cérémonie d'inauguration de l'hôpital Tsinghua AI Agent et la réunion municipale de médecine Tsinghua 2025 dans la salle de réception du bâtiment principal. Le président Li Luming a passé en revue les progrès des programmes médicaux de l'Université Tsinghua au cours de l'année écoulée, soulignant l'engagement fort de l'université en faveur du développement des disciplines médicales. Il a souligné la force de Tsinghua en recherche fondamentale en intelligence artificielle, qui a déjà donné lieu à une série d'innovations de haut niveau à l'intersection de l'IA et de la médecine. La création de l'hôpital Tsinghua AI Agent représente une nouvelle initiative de Tsinghua visant à exploiter ses atouts en sciences et en ingénierie pour favoriser le progrès médical.

Le développement de l'hôpital Tsinghua AI Agent se déroulera par phases. Dans un premier temps, le système hospitalier sera construit en s'appuyant sur l'infrastructure complète d'IA de l'université et sur ses compétences interdisciplinaires en ingénierie et en médecine. Il sera mis en œuvre à titre pilote à l'hôpital Tsinghua Changgung de Pékin et à l'hôpital Internet Tsinghua Changgung de Pékin, en commençant par des services tels que la médecine générale, l'ophtalmologie, le diagnostic radiologique et la pneumologie. À l'avenir, l'hôpital vise à créer un écosystème en boucle fermée combinant « IA + Santé + Éducation + Recherche », favorisant ainsi le développement efficace et la répartition équitable de ressources médicales de haute qualité. L'objectif ultime est d'offrir à un plus grand nombre de personnes des services médicaux abordables, durables et de qualité.

Wong Tien Yin a souligné que l'hôpital à agents IA est conçu pour transcender le modèle traditionnel « Hôpital + IA ». Ainsi, les fonctions des agents IA sont intégrées dès la conception, guidées par les besoins des services cliniques. Cette approche aidera les médecins à prendre des décisions précises, améliorera l'efficacité des soins et la satisfaction des patients, réduira les coûts de fonctionnement de l'hôpital et contribuera à remédier à la pénurie de médecins généralistes. À long terme, l'hôpital prévoit de fonctionner comme un hôpital physique doté d'IA, favorisant ainsi une transformation révolutionnaire des modèles de soins. Il servira également de plateforme clé pour la formation médicale à Tsinghua, formant une nouvelle génération de « médecins collaboratifs IA ».

Le Programme clinique universitaire de l'Université Tsinghua s'engage à établir un cadre universitaire collaboratif grâce à la collaboration interdisciplinaire et à l'intégration des ressources des hôpitaux affiliés à Tsinghua, des facultés de médecine de Tsinghua et d'autres facultés de l'Université Tsinghua, ainsi que de partenaires internationaux. En établissant un mécanisme de collaboration interdisciplinaire à long terme, axé sur les besoins cliniques et suivant le modèle « X + Médecine », le Programme clinique universitaire vise à favoriser le partage ouvert et une synergie renforcée entre les domaines des soins cliniques, de l'enseignement et de la recherche, élevant ainsi le niveau de la médecine universitaire. De plus, il vise à insuffler un nouvel élan au développement des disciplines et des talents afin de soutenir les objectifs de la stratégie « Chine en bonne santé 2030 ».
Lire la suite (0 Commentaires)
Publié le: 14/05/2025 @ 12:06:42: Par Nic007 Dans "Programmation"
ProgrammationDepuis plus d'un mois, Meta AI fait son apparition discrètement mais visiblement au sein de l' application WhatsApp , intégrée directement dans la barre de recherche et son bouton dédié. Nous avons déjà couvert une grande partie du fonctionnement de Meta AI et de ce que nous pouvons en faire , mais nous avons également souligné les problèmes de confidentialité et la controverse sur le fait que vous ne pouvez pas le désactiver . L''italien Codacons est désormais également entré dans la mêlée, en présentant un avertissement à Meta et une plainte officielle auprès de l'Antitrust et du Privacy Garantor . L'accusation est claire : l'activation automatique du service se serait produite sans consentement explicite , avec de possibles violations du RGPD et du Code de la consommation . Selon Codacons , le problème principal n’est pas tant la présence de l’IA elle-même, mais le fait qu’elle ne peut pas être réellement désactivée . La seule option offerte à l'utilisateur est d' ignorer ou de masquer partiellement la fonction, mais cela n'empêche pas que les données soient traitées en arrière-plan de toute façon.

L'association parle d'une violation manifeste du RGPD , notamment :

- de l’article 5, qui exige le respect de critères tels que la légalité, la régularité et la transparence ;
- de l'article 6, qui établit que le traitement des données doit être fondé sur une base juridique valable , telle que le consentement libre et explicite de l'utilisateur.

La jurisprudence européenne, avec des affaires telles que l’ arrêt Planet49 (C-673/17) , a déjà précisé que le consentement ne peut jamais être présumé ni activé par défaut . Dans ce cas, cependant, Meta AI a été activé automatiquement , sans donner aux utilisateurs de véritables outils pour décider. Et même l’intérêt légitime ne peut justifier le traitement, selon Codacons, car l’ équilibre avec les droits fondamentaux des utilisateurs fait défaut. À cela s’ajoute la manière dont la fonctionnalité a été présentée : non pas comme un choix, mais comme une amélioration de l’expérience . Une décision qui, selon Codacons, cache la finalité de la collecte de données et de la fidélisation , grâce à l'utilisation de techniques persuasives capables d'orienter le comportement des utilisateurs.

Avec le dépôt de la plainte, Codacons a demandé à l' Antitrust et au Privacy Garant d'intervenir pour évaluer si l'activation automatique de Meta AI sur WhatsApp viole le cadre réglementaire européen. En parallèle, il a averti Meta en demandant d' arrêter immédiatement la diffusion de la fonction, au moins jusqu'à ce que trois conditions spécifiques soient garanties :

- Transparence totale sur le fonctionnement de Meta AI et sur le type de données collectées.
- La possibilité de désactiver complètement l'assistant, facilement et définitivement.
- Respect total du Règlement européen sur la vie privée , notamment en matière de consentement.

Le cœur du problème est la liberté de choix : personne ne conteste l’introduction de fonctions basées sur l’intelligence artificielle , mais celles-ci doivent être facultatives , et non imposées automatiquement. Le risque, selon Codacons, est que Meta tente de normaliser l’utilisation de l’IA sans fournir aux utilisateurs le contrôle nécessaire. Cette histoire pourrait devenir un cas symbolique dans le débat plus large sur l’utilisation de l’intelligence artificielle dans les applications que nous utilisons au quotidien. Si l’intervention des autorités donne raison à Codacons, un précédent important pourrait être créé qui obligera d’autres plateformes à adopter des critères plus stricts en termes de consentement éclairé et d’activation de nouvelles fonctionnalités .
Lire la suite (0 Commentaires)
Publié le: 14/05/2025 @ 11:53:28: Par Nic007 Dans "Programmation"
ProgrammationTikTok a lancé une nouvelle fonctionnalité appelée AI Alive , conçue pour donner vie aux photos directement dans les Stories . Il s'agit d'une technologie qui utilise l'intelligence artificielle pour animer des images statiques et les transformer en courtes vidéos , sans avoir besoin d'applications externes ou de compétences d'édition. Ce développement marque l'entrée de TikTok dans le monde de la génération de vidéos basée sur l'IA à partir d'images , donnant à chacun la possibilité de raconter des histoires visuellement plus riches . En quelques clics, vous pouvez passer d'une photo statique à un contenu dynamique, prêt à être partagé. AI Alive est intégré à la caméra TikTok Stories , accessible en appuyant sur le symbole « + » en haut de votre boîte de réception ou de votre profil. Après avoir sélectionné une photo dans la galerie Stories, une nouvelle icône AI apparaît dans la barre latérale : à partir de là, l'animation automatique de l'image démarre. Si le processus n’est pas clair, l’image suivante devrait clarifier les étapes que vous devrez suivre une fois que l’option sera disponible pour tout le monde. Le système utilise l’intelligence artificielle pour analyser la scène et appliquer des effets visuels tels que des mouvements naturels, des transitions lumineuses, des sons ambiants et des micro-animations. Tout se passe en quelques secondes, sans avoir à quitter l'application, et est conçu pour ceux qui souhaitent créer du contenu percutant même sans expérience technique. Un coucher de soleil peut se transformer en un court métrage avec des nuages ​​en mouvement et des vagues qui s'écrasent , tandis qu'une photo de groupe peut devenir un souvenir animé , avec des sourires et des regards qui prennent vie.

TikTok affirme avoir conçu AI Alive en mettant clairement l'accent sur la sécurité de la communauté . Chaque contenu généré est soumis à plusieurs niveaux de contrôle , avant et après publication. L'image téléchargée, toute invite de texte et la vidéo générée sont toutes analysées pour détecter d'éventuelles violations des directives de la plateforme . Lorsqu'un créateur décide de partager son histoire d'IA, un dernier contrôle de sécurité est effectué . De plus, les utilisateurs peuvent signaler tout contenu problématique , comme n'importe quelle autre vidéo sur l'application. Pour rendre l'utilisation de l'intelligence artificielle claire, TikTok ajoute une étiquette visible et intègre également des métadonnées C2PA dans les vidéos . Ces métadonnées permettent d'identifier l'origine du contenu même s'il est téléchargé et repartagé en dehors de la plateforme . Sur le papier, tout semble être fait dans les règles de l'art, mais il faudra attendre que cette fonctionnalité soit généralisée avant de porter un jugement définitif , également parce que nous ne la voyons pas encore disponible.
Lire la suite (0 Commentaires)
Publié le: 09/05/2025 @ 15:45:35: Par Nic007 Dans "Programmation"
ProgrammationAvec le lancement de la One UI 8 Watch , Samsung se prépare à proposer des montres connectées Gemini , l'IA de Google qui remplacera l'actuel Google Assistant. Mais nous ne parlons pas ici uniquement d’un assistant vocal : la nouveauté est bien plus intéressante. Une analyse des fichiers APK divulgués révèle comment Gemini pourra se connecter de manière transparente aux applications , gérer les tâches quotidiennes et automatiser les commandes. Ce système, appelé Gemini Actions , vous permettra d'effectuer des actions telles que :

- Déplacer un rendez-vous dans le calendrier ;
- Résumer le dernier email reçu ;
- Vérifiez la météo dans une ville spécifique.

En bref, des fonctions pratiques et concrètes, conçues pour la vraie vie. Et les touches attentionnées pour une utilisation quotidienne ne manquent pas : il y aura une option pour couper la voix de Gemini d'un simple toucher sur l'écran, utile à la salle de sport ou dans les lieux publics.

La mise à jour ne concerne pas seulement les fonctionnalités : l'interface bénéficiera également d'un joli peaufinage. Avec One UI 8 Watch, nous verrons des icônes repensées , plus cohérentes avec le style général du système. Les nouveaux éléments graphiques suivent un schéma en squircle , c'est-à-dire un carré aux coins arrondis, accompagné d'un cadre blanc bien défini . Ce détail améliore le contraste, même si certains utilisateurs peuvent le trouver esthétiquement peu attrayant. Une icône en particulier se démarque parmi les autres : celle de Gemini , déjà visible sur certaines smartwatches mais toujours liée à Google Assistant. Il convient de préciser que, même si l'icône est déjà présente, les fonctionnalités de l'IA ne sont pas encore actives , mais ce n'est qu'une question de temps avant que l'intégration ne soit complète, comme déjà mentionné dans la première partie de l'article.

Ce n’est pas la première fois que Samsung est en avance sur ses intégrations logicielles. Et cette fois encore, avec la One UI 8 Watch , elle pourrait être la première à sortir Gemini sur des montres connectées. Le choix de sauter One UI 7 Watch et de passer directement à la version 8 semble être une décision stratégique pour s'aligner sur la nouvelle direction de l'intelligence artificielle. Samsung travaille en étroite collaboration avec Google sur le front des montres intelligentes depuis des années, et le fait qu'une Galaxy Watch soit la première à recevoir des fonctionnalités d'IA ne devrait pas être une surprise. Pour le moment, les APK divulgués ne sont pas compatibles avec les anciens modèles , mais il est probable que les nouveaux appareils qui sortiront seront conçus pour profiter pleinement des nouvelles fonctionnalités offertes par Gemini. Et avec la prochaine conférence Google I/O 2025 qui approche à grands pas, nous n’aurons pas à attendre longtemps pour voir tout cela en action.
Lire la suite (0 Commentaires)
Publié le: 07/05/2025 @ 14:58:42: Par Nic007 Dans "Programmation"
ProgrammationChatGPT et d'autres systèmes d'IA commettent de plus en plus d'erreurs, même s'ils deviennent en réalité de plus en plus puissants, selon la conclusion intérimaire inquiétante des développeurs. Selon les tests internes d'OpenAI, le modèle phare GPT o3 hallucine sur un tiers de toutes les questions concernant les personnalités publiques - plus de deux fois plus souvent que son prédécesseur o1. Le modèle 04-mini, plus compact, est encore moins performant avec un taux d'erreur de 48 %. Pour les questions de connaissances plus générales dans le benchmark SimpleQA, les taux d'hallucinations augmentent considérablement jusqu'à 51 % pour o3 et même 79 % pour o4-mini. Ces chiffres sont particulièrement inquiétants car les modèles les plus récents annoncent en réalité des capacités logiques et de raisonnement améliorées. Une explication possible de ce phénomène réside dans le fonctionnement des nouveaux modèles de raisonnement. Contrairement aux systèmes plus anciens qui s’appuient principalement sur des probabilités statistiques, ces modèles tentent de décomposer des problèmes complexes en étapes logiques, de manière similaire à la façon dont les humains penseraient.

Comme le rapporte le New York Times , c’est précisément ce processus de réflexion étape par étape qui pourrait devenir un problème. « Les technologies les plus récentes et les plus puissantes – les systèmes de raisonnement d’entreprises comme OpenAI, Google et la start-up chinoise DeepSeek – génèrent davantage d’erreurs, et non moins », explique le journal. À chaque étape de réflexion, le système pourrait introduire de nouvelles erreurs, qui deviendraient alors plus prononcées à mesure que le processus progresse. OpenAI elle-même déclare que des recherches supplémentaires sont nécessaires pour comprendre les causes exactes. « Les hallucinations ne sont pas intrinsèquement plus courantes dans les modèles de raisonnement, bien que nous travaillions activement à réduire les taux d'hallucinations plus élevés que nous avons observés dans o3 et o4-mini », a déclaré Gaby Raila, porte-parole d'OpenAI, au New York Times.

Les conséquences de cette évolution sont de grande portée. Les systèmes d’IA sont de plus en plus utilisés dans des domaines tels que l’éducation, la santé et le gouvernement, des environnements où les erreurs peuvent avoir de graves conséquences. Il existe déjà des rapports d'avocats citant des décisions judiciaires inexistantes générées par ChatGPT. Ce phénomène n’est pas entièrement nouveau dans l’histoire de l’intelligence artificielle. Dès les années 1980, les chercheurs ont observé ce qu'on appelle « l'effet Eliza », du nom d'un ancien chatbot , dans lequel les gens avaient tendance à attribuer au système plus de compréhension qu'il n'en possédait réellement. Les problèmes d’hallucinations actuels pourraient être considérés comme une variante moderne de cet effet – à la différence près que les systèmes eux-mêmes « croient » désormais en savoir plus qu’ils n’en savent réellement.
Lire la suite (0 Commentaires)
Publié le: 02/05/2025 @ 14:42:46: Par Nic007 Dans "Programmation"
ProgrammationChatGPT est à nouveau mis à jour et cette fois-ci il le fait en grand : entre les achats en ligne , les sources visibles et une meilleure intégration sur WhatsApp , le chatbot OpenAI devient de plus en plus pratique à utiliser au quotidien. Les nouvelles fonctionnalités sont déjà en cours de déploiement et aucun abonnement n'est requis : elles sont accessibles à tous . Nous pouvons désormais également utiliser ChatGPT pour rechercher et comparer des produits . Nous écrivons simplement ce qui nous intéresse, et cela nous montre des résultats plus complets et plus compréhensibles, comme dans l'exemple ci-dessous.

- Cartes visuelles avec images, noms, prix et avis.
- Liens d'achat direct , pas de publicité ni d'affiliation.
- Données provenant de sources multiples , non influencées par des sponsors ou des préférences.

Toutes ces fonctionnalités sont disponibles même en étant déconnecté , donc tout le monde peut les utiliser. C'est un moyen rapide de se faire une idée avant un achat, sans passer d'un site à l'autre mais, comme toujours avec l'IA, il faut lui faire confiance , car les réponses seront toujours très sûres, mais cela ne veut pas dire qu'elles sont sans faille.

Une autre nouveauté concerne la vérifiabilité des informations . Lorsque ChatGPT nous donne une réponse, il peut désormais également afficher plusieurs sources pour chaque partie du texte. Ce que cela signifie en pratique : les sources sont mises en évidence au sein de la réponse , et chaque donnée possède une référence précise , de sorte que nous pouvons immédiatement comprendre d'où vient chaque affirmation , et éventuellement aller en savoir plus sur le site concerné. Il s’agit d’un grand pas en avant pour ceux qui souhaitent vérifier des informations ou les utiliser dans des contextes où l’exactitude compte, tout en citant consciencieusement les sources . Mais si nous devions ouvrir le chapitre sur la légitimité des données utilisées pour former ChatGPT maintenant , nous n’en finirions jamais.

Depuis l'année dernière, il est possible de discuter avec ChatGPT sur WhatsApp . Nous pouvons désormais envoyer un message au chatbot pour obtenir des réponses à jour et des résultats sportifs en direct. Pour paraphraser, la fonction de recherche Web aurait dû être intégrée à ChatGPT pour WhatsApp, alors qu'auparavant nous ne pouvions nous appuyer que sur la base de connaissances de ce modèle. Certainement un ajout utile, qui met une fois de plus la version WhatsApp de ChatGPT à égalité avec la version standard et relance le défi à Meta AI , qui vient de gagner sa première application .
Lire la suite (0 Commentaires)
Publié le: 29/04/2025 @ 14:29:22: Par Nic007 Dans "Programmation"
ProgrammationOpenAI a décidé de rendre Deep Research accessible à un nombre beaucoup plus grand d'utilisateurs. Il s'agit d'une fonctionnalité intégrée à ChatGPT qui vous permet d'obtenir une analyse détaillée sous la forme de rapports bien structurés , utiles pour ceux qui souhaitent aborder des sujets complexes sans perdre de temps à rechercher eux-mêmes des informations. Jusqu'à présent, cette fonctionnalité était réservée uniquement aux abonnés, mais elle est désormais également disponible pour ceux qui utilisent ChatGPT gratuitement, grâce à une nouvelle version plus légère , conçue pour être moins coûteuse à gérer mais toujours efficace. Deep Research est conçu pour vous aider à collecter et à organiser des informations sur n'importe quel sujet. Il peut être utilisé pour préparer une thèse scientifique , analyser un marché ou évaluer des alternatives dans la vie quotidienne, comme choisir une nouvelle ville où déménager ou comprendre quelle routine de peau est la meilleure. Les exemples ne finissent jamais !

Le système utilise deux modèles différents, selon la version active :

- o3 pour la version complète, disponible uniquement pour les utilisateurs payants
- o4-mini pour la version light, accessible même à ceux qui ne paient pas

Les deux modèles fournissent des réponses structurées , mais le modèle léger produit des textes plus courts. OpenAI garantit que la qualité reste élevée , avec des réponses toujours complètes et bien organisées. La disponibilité et les performances de Deep Research varient selon le type d'abonnement sur ChatGPT. Vous trouverez ci-dessous un aperçu clair :

- Gratuit : 5 recherches/mois (version allégée uniquement)
- Plus et Team : 10 recherches/mois (version complète) + 15 recherches/mois (version light)
- Pro : 125 recherches/mois (version complète) + 125 recherches/mois (version allégée)
- Entreprise : 10 recherches/mois (version complète uniquement)

Une fois la limite de version complète atteinte, ChatGPT passe automatiquement à la version légère, sans plantage ni interruption. Une fois ceux-ci épuisés, il ne reste plus qu'à attendre le mois suivant, alors n'en abusez pas !
Lire la suite (0 Commentaires)
Publié le: 25/04/2025 @ 16:28:39: Par Nic007 Dans "Programmation"
ProgrammationUne station de radio de Sydney utilise une présentatrice générée par l'IA depuis environ six mois sans le divulguer – et n'y était pas légalement obligée. L'animatrice artificielle connue sous le nom de « Thy » est à l'antenne à 11 heures chaque jour de la semaine pour présenter quatre heures de hip-hop, mais à aucun moment pendant l'émission, ni nulle part sur le site Web d'ARN , l'utilisation de l'IA n'est divulguée. Après un premier interrogatoire de Stephanie Coombes dans la newsletter The Carpet , il a été révélé que la station avait utilisé ElevenLabs – une plateforme audio générative d'IA qui transforme le texte en parole – pour créer Thy, dont l'image et la voix ont été clonées à partir d'un véritable employé de l'équipe financière d'ARN. CADA n'est pas la première station de radio à utiliser une présentatrice générée par l'IA. Il y a deux ans, la radio numérique australienne Disrupt Radio a lancé sa propre présentatrice de nouvelles, Debbie Disrupt. Cependant, le fait qu'elle n'était pas une vraie personne était clairement indiqué dès le début. Et en 2023, une station de l'Oregon, aux États-Unis, a utilisé une présentatrice IA, inspirée d'une vraie présentatrice.
Lire la suite (0 Commentaires)
Informaticien.be - © 2002-2025 AkretioSPRL  - Generated via Kelare
The Akretio Network: Akretio - Freedelity - KelCommerce - Votre publicité sur informaticien.be ?