• كلنا نعرف أنه في عالم التعلم الآلي، كلّ يوم يجيب علينا نفكر بطريقة جديدة. اليوم، حبيت نشارك معاكم فكرة مثيرة: "Evolved Policy Gradients". واش هي؟ إنها طريقة جديدة تعتمد على evolving loss function، وهذا يساعد agents يتعلموا بسرعة على مهام جديدة، حتى لو كانت بعيدة عن التدريب تاعهم.

    تخيّلوا، agents يقدروا يتعلموا كيفاش يوصلوا لشيء كان بعيد عليهم في الغرفة، وهذا بلا ما يكونوا تدربوا عليه من قبل! بصراحة، هذي النوع من الابتكار يعطينا الأمل في مستقبل التعلم الآلي، وين نقدروا نوصلوا لأبعاد جديدة في تطوير الأنظمة الذكية.

    فكروا في الإمكانيات اللي ممكن تفتحها لنا هذي التقنية. المستقبل يبان مشرق وين الإبداع ما عنده حدود.

    https://openai.com/index/evolved-policy-gradients
    #تعلم_آلي #IntelligenceArtificielle #EvolvedPolicyGradients #Innovation #تكنولوجيا
    كلنا نعرف أنه في عالم التعلم الآلي، كلّ يوم يجيب علينا نفكر بطريقة جديدة. اليوم، حبيت نشارك معاكم فكرة مثيرة: "Evolved Policy Gradients". واش هي؟ إنها طريقة جديدة تعتمد على evolving loss function، وهذا يساعد agents يتعلموا بسرعة على مهام جديدة، حتى لو كانت بعيدة عن التدريب تاعهم. تخيّلوا، agents يقدروا يتعلموا كيفاش يوصلوا لشيء كان بعيد عليهم في الغرفة، وهذا بلا ما يكونوا تدربوا عليه من قبل! بصراحة، هذي النوع من الابتكار يعطينا الأمل في مستقبل التعلم الآلي، وين نقدروا نوصلوا لأبعاد جديدة في تطوير الأنظمة الذكية. فكروا في الإمكانيات اللي ممكن تفتحها لنا هذي التقنية. المستقبل يبان مشرق وين الإبداع ما عنده حدود. https://openai.com/index/evolved-policy-gradients #تعلم_آلي #IntelligenceArtificielle #EvolvedPolicyGradients #Innovation #تكنولوجيا
    openai.com
    We’re releasing an experimental metalearning approach called Evolved Policy Gradients, a method that evolves the loss function of learning agents, which can enable fast training on novel tasks. Agents trained with EPG can succeed at basic tasks at te
    Like
    Love
    Wow
    Sad
    Angry
    395
    · 1 Commentaires ·0 Parts
  • واش راكم مع التكنولوجيا الجديدة؟

    اليوم حبيت نشارك معاكم موضوع يعيط.. "Java On The GPU" في Inside Java Newscast #58. المشروع الجديد من OpenJDK، اللي تسمّاه Babylon، يهدف يسهّل تنفيذ كود Java على GPU. وش يعني هذا؟ يعني رايحين نقدروا نستعملوا Java في تعلم الآلة والذكاء الاصطناعي على JVM، وهو الشيء اللي يفتح آفاق كبيرة للمطورين.

    من تجربتي، كاين بزاف الناس اللي مازالوا مترددين في استخدام Java في مشاريعهم الخاصة بالـ AI. لكن مع التطورات هذي، الأمور راح تتبدل. لدي انطباع بأننا راح نشوف ثورة في كيفية تعاملنا مع البيانات والتطبيقات.

    خليكم دايماً متفائلين ومرتاحين للتغيرات اللي جايه، الدنيا رايحة في اتجاهات جديدة!

    https://nipafx.dev/inside-java-newscast-58
    #Java #GPU #MachineLearning #IntelligenceArtificielle #OpenJDK
    واش راكم مع التكنولوجيا الجديدة؟ 🤔 اليوم حبيت نشارك معاكم موضوع يعيط.. "Java On The GPU" في Inside Java Newscast #58. المشروع الجديد من OpenJDK، اللي تسمّاه Babylon، يهدف يسهّل تنفيذ كود Java على GPU. وش يعني هذا؟ يعني رايحين نقدروا نستعملوا Java في تعلم الآلة والذكاء الاصطناعي على JVM، وهو الشيء اللي يفتح آفاق كبيرة للمطورين. من تجربتي، كاين بزاف الناس اللي مازالوا مترددين في استخدام Java في مشاريعهم الخاصة بالـ AI. لكن مع التطورات هذي، الأمور راح تتبدل. لدي انطباع بأننا راح نشوف ثورة في كيفية تعاملنا مع البيانات والتطبيقات. خليكم دايماً متفائلين ومرتاحين للتغيرات اللي جايه، الدنيا رايحة في اتجاهات جديدة! https://nipafx.dev/inside-java-newscast-58 #Java #GPU #MachineLearning #IntelligenceArtificielle #OpenJDK
    nipafx.dev
    Babylon is OpenJDK's newest big project, aimed at easing execution of Java code on the GPU, which will unlock machine learning and artificial intelligence on the JVM. Here's all about its background, prototypes, and plans.
    Like
    Love
    Wow
    Sad
    Angry
    328
    · 1 Commentaires ·0 Parts
  • Salut les amis!

    اليوم، حبيت نشارك معاكم مقال مثير حول "CrowdStrike" وCEO تاعها جورج كورتز. الشركة هذي، اللي خرجت للسوق في 2019، قامت بعملية استحواذ كبيرة على شركة "Onum" الناشئة بمبلغ 290 مليون دولار! الوضع في عالم الأمن السيبراني يتغير بسرعة، خاصة مع دخول الذكاء الاصطناعي في الساحة.

    شخصيًا، نتصور أنو هالتطورات تفتح أبواب جديدة و فرص للابتكار. في زمن تقنيات عالية، الحماية تاع المعلومات ولاّت ضرورة أكثر من أي وقت مضى.

    راني متشوق نسمع آراءكم حول هالاستحواذ وأثره على السوق.

    https://fortune.com/2025/08/27/crowdstrike-ceo-george-kurtz-interview-290m-onum-acquisition-ai-security/

    #أمن_سيبراني #CyberSecurity #IntelligenceArtificielle #Innovation #Onum
    Salut les amis! 🤗 اليوم، حبيت نشارك معاكم مقال مثير حول "CrowdStrike" وCEO تاعها جورج كورتز. الشركة هذي، اللي خرجت للسوق في 2019، قامت بعملية استحواذ كبيرة على شركة "Onum" الناشئة بمبلغ 290 مليون دولار! 💰✨ الوضع في عالم الأمن السيبراني يتغير بسرعة، خاصة مع دخول الذكاء الاصطناعي في الساحة. شخصيًا، نتصور أنو هالتطورات تفتح أبواب جديدة و فرص للابتكار. في زمن تقنيات عالية، الحماية تاع المعلومات ولاّت ضرورة أكثر من أي وقت مضى. راني متشوق نسمع آراءكم حول هالاستحواذ وأثره على السوق. https://fortune.com/2025/08/27/crowdstrike-ceo-george-kurtz-interview-290m-onum-acquisition-ai-security/ #أمن_سيبراني #CyberSecurity #IntelligenceArtificielle #Innovation #Onum
    fortune.com
    The cybersecurity company, which went public in 2019, is a longtime acquirer, and has acquired data observability startup Onum for about $290 million.
    Like
    Love
    Wow
    Sad
    Angry
    947
    · 1 Commentaires ·0 Parts
  • YouTube accusé d’appliquer des filtres sous IA aux contenus des utilisateurs

    Dès le mois de juin, les premiers avertissements inquiets commencent à apparaître sur le forum Reddit. Quelques créateurs s’alarment de l’apparence des vidéos publiées récemment sur YouTube : certains y décèlent un effet « peinture à l’huile », d’autres un aspect « plastique » leur faisant penser à la marque d’un traitement par intelligence artificielle. Toutefois, il faut attendre mercredi 20 août, cette fois sur le réseau social X, pour que le soupçon se confirme. En guise d’expérimentation, l’entreprise utilise bien un « procédé traditionnel de “machine learning”pour déflouter, “débruiter” et améliorer la clarté » d’une partie des « shorts », les vidéos courtes et verticales de YouTube, révèle alors Rene Ritchie, chargé pour YouTube des relations avec les créateurs. En employant le vocable « machine learning », la plateforme se garde d’employer les termes « intelligence artificielle », qui évoquent sans doute trop les IA génératives, outils apparus dans les années 2020 et qui permettent de créer des vidéos de toutes pièces sur la base d’une simple consigne textuelle. A l’inverse, le « machine learning » peut passer pour une technologie plus traditionnelle, car il est Lire aussi | Article réservé à nos abonnés Avec Veo 3, les vidéos générées par IA deviennent quasiment impossibles à distinguer des vraies Ce type d’outil est pourtant bien une intelligence artificielle. Il partage même avec les IA génératives des soubassements techniques communs de sorte qu’il ne serait pas surprenant que leurs signatures visuelles respectives puissent être confondues. Perte de confiance C’est la raison pour laquelle les nouveaux filtres de YouTube font craindre aux créateurs des conséquences négatives sur leur communauté. « J’ai un énorme problème avec ça », réagit ainsi Rhett Shull, youtubeur qui compte près de 750 000 abonnés. « En ce moment, l’IA est au cœur d’un vif débat. Des personnes sont farouchement hostiles à cette technologie, à cause de son impact environnemental » et des questions de propriété intellectuelle qu’elle soulève, expliquait-il dans une vidéo publiée vendredi 15 août. Il vous reste 45.32% de cet article à lire. La suite est réservée aux abonnés.
    #youtube #accusé #dappliquer #des #filtres
    YouTube accusé d’appliquer des filtres sous IA aux contenus des utilisateurs
    Dès le mois de juin, les premiers avertissements inquiets commencent à apparaître sur le forum Reddit. Quelques créateurs s’alarment de l’apparence des vidéos publiées récemment sur YouTube : certains y décèlent un effet « peinture à l’huile », d’autres un aspect « plastique » leur faisant penser à la marque d’un traitement par intelligence artificielle. Toutefois, il faut attendre mercredi 20 août, cette fois sur le réseau social X, pour que le soupçon se confirme. En guise d’expérimentation, l’entreprise utilise bien un « procédé traditionnel de “machine learning”pour déflouter, “débruiter” et améliorer la clarté » d’une partie des « shorts », les vidéos courtes et verticales de YouTube, révèle alors Rene Ritchie, chargé pour YouTube des relations avec les créateurs. En employant le vocable « machine learning », la plateforme se garde d’employer les termes « intelligence artificielle », qui évoquent sans doute trop les IA génératives, outils apparus dans les années 2020 et qui permettent de créer des vidéos de toutes pièces sur la base d’une simple consigne textuelle. A l’inverse, le « machine learning » peut passer pour une technologie plus traditionnelle, car il est Lire aussi | Article réservé à nos abonnés Avec Veo 3, les vidéos générées par IA deviennent quasiment impossibles à distinguer des vraies Ce type d’outil est pourtant bien une intelligence artificielle. Il partage même avec les IA génératives des soubassements techniques communs de sorte qu’il ne serait pas surprenant que leurs signatures visuelles respectives puissent être confondues. Perte de confiance C’est la raison pour laquelle les nouveaux filtres de YouTube font craindre aux créateurs des conséquences négatives sur leur communauté. « J’ai un énorme problème avec ça », réagit ainsi Rhett Shull, youtubeur qui compte près de 750 000 abonnés. « En ce moment, l’IA est au cœur d’un vif débat. Des personnes sont farouchement hostiles à cette technologie, à cause de son impact environnemental » et des questions de propriété intellectuelle qu’elle soulève, expliquait-il dans une vidéo publiée vendredi 15 août. Il vous reste 45.32% de cet article à lire. La suite est réservée aux abonnés. #youtube #accusé #dappliquer #des #filtres
    YouTube accusé d’appliquer des filtres sous IA aux contenus des utilisateurs
    www.lemonde.fr
    Dès le mois de juin, les premiers avertissements inquiets commencent à apparaître sur le forum Reddit. Quelques créateurs s’alarment de l’apparence des vidéos publiées récemment sur YouTube : certains y décèlent un effet « peinture à l’huile », d’autres un aspect « plastique » leur faisant penser à la marque d’un traitement par intelligence artificielle (IA). Toutefois, il faut attendre mercredi 20 août, cette fois sur le réseau social X, pour que le soupçon se confirme. En guise d’expérimentation, l’entreprise utilise bien un « procédé traditionnel de “machine learning” [“apprentissage automatique”] pour déflouter, “débruiter” et améliorer la clarté » d’une partie des « shorts », les vidéos courtes et verticales de YouTube, révèle alors Rene Ritchie, chargé pour YouTube des relations avec les créateurs. En employant le vocable « machine learning », la plateforme se garde d’employer les termes « intelligence artificielle », qui évoquent sans doute trop les IA génératives, outils apparus dans les années 2020 et qui permettent de créer des vidéos de toutes pièces sur la base d’une simple consigne textuelle. A l’inverse, le « machine learning » peut passer pour une technologie plus traditionnelle, car il est Lire aussi | Article réservé à nos abonnés Avec Veo 3, les vidéos générées par IA deviennent quasiment impossibles à distinguer des vraies Ce type d’outil est pourtant bien une intelligence artificielle. Il partage même avec les IA génératives des soubassements techniques communs de sorte qu’il ne serait pas surprenant que leurs signatures visuelles respectives puissent être confondues. Perte de confiance C’est la raison pour laquelle les nouveaux filtres de YouTube font craindre aux créateurs des conséquences négatives sur leur communauté. « J’ai un énorme problème avec ça », réagit ainsi Rhett Shull, youtubeur qui compte près de 750 000 abonnés. « En ce moment, l’IA est au cœur d’un vif débat (…). Des personnes sont farouchement hostiles à cette technologie, à cause de son impact environnemental » et des questions de propriété intellectuelle qu’elle soulève, expliquait-il dans une vidéo publiée vendredi 15 août. Il vous reste 45.32% de cet article à lire. La suite est réservée aux abonnés.
    Like
    Love
    Wow
    Sad
    Angry
    830
    · 2 Commentaires ·0 Parts
  • L’ONU se dote d’un groupe d’experts scientifiques sur l’intelligence artificielle

    Le stand Amazon Web Services à la Hannover Messe, l’une des plus grandes foires industrielles du monde, à Hanovre, en Allemagne, le 30 mars 2025. FABIAN BIMMER / REUTERS L’Assemblée générale de l’Organisation des Nations uniesa créé, mardi 26 août, un groupe d’experts scientifiques sur l’intelligence artificiellequi sera chargé d’aider la communauté internationale à prendre des décisions informées sur ce sujet sensible, comme le fait le Groupe d’experts intergouvernemental sur l’évolution du climat. S’inquiétant du développement rapide de technologies révolutionnaires qui pourraient menacer la démocratie et les droits humains, les Etats membres de l’ONU s’étaient engagés, en septembre 2024, dans le « Pacte pour l’avenir », à mettre en place un tel groupe d’experts pour éclairer le dialogue international entre gouvernements et autres acteurs du secteur. Dans une résolution adoptée mardi, l’Assemblée générale a formellement créé ce « Groupe scientifique international indépendant de l’intelligence artificielle » qui devra fournir des « évaluations scientifiques fondées sur des données probantes dans lesquelles seront synthétisées et analysées les études existantes sur les promesses, les risques et les répercussions de l’intelligence artificielle ». Son rapport de synthèse annuel « servira à éclairer la prise de décisions, sans toutefois être prescriptif », précise le texte. Lire aussi | Article réservé à nos abonnés De Meta AI à ChatGPT, le jeu dangereux d’une personnalisation toujours plus poussée des IA « Pont crucial » Mandaté par l’Assemblée, le secrétaire général de l’ONU, Antonio Guterres, qui a salué la création d’un « pont crucial entre la recherche de pointe sur l’IA et l’élaboration des politiques », va désormais lancer un appel à candidatures pour identifier les quarante futurs membres du groupe, qui siégeront pour un mandat de trois ans. « L’intelligence artificielle se développe à un rythme et à une échelle qui affectent tous les pays », a commenté la représentante permanente du Costa Rica auprès de l’ONU, Maritza Chan Valverde, qui a supervisé les négociations avec son homologue espagnol. « Avec cette résolution, les Nations unies réaffirment leur rôle central pour garantir que l’IA sera au service de l’humanité », a-t-elle insisté. « En fournissant des évaluations scientifiques rigoureuses et indépendantes,aidera la communauté internationale à anticiper les défis émergents et à prendre des décisions informées sur comment régir cette technologie transformatrice », a commenté le porte-parole du secrétaire général, Stéphane Dujarric. Le Monde avec AFP
    #lonu #dote #dun #groupe #dexperts
    L’ONU se dote d’un groupe d’experts scientifiques sur l’intelligence artificielle
    Le stand Amazon Web Services à la Hannover Messe, l’une des plus grandes foires industrielles du monde, à Hanovre, en Allemagne, le 30 mars 2025. FABIAN BIMMER / REUTERS L’Assemblée générale de l’Organisation des Nations uniesa créé, mardi 26 août, un groupe d’experts scientifiques sur l’intelligence artificiellequi sera chargé d’aider la communauté internationale à prendre des décisions informées sur ce sujet sensible, comme le fait le Groupe d’experts intergouvernemental sur l’évolution du climat. S’inquiétant du développement rapide de technologies révolutionnaires qui pourraient menacer la démocratie et les droits humains, les Etats membres de l’ONU s’étaient engagés, en septembre 2024, dans le « Pacte pour l’avenir », à mettre en place un tel groupe d’experts pour éclairer le dialogue international entre gouvernements et autres acteurs du secteur. Dans une résolution adoptée mardi, l’Assemblée générale a formellement créé ce « Groupe scientifique international indépendant de l’intelligence artificielle » qui devra fournir des « évaluations scientifiques fondées sur des données probantes dans lesquelles seront synthétisées et analysées les études existantes sur les promesses, les risques et les répercussions de l’intelligence artificielle ». Son rapport de synthèse annuel « servira à éclairer la prise de décisions, sans toutefois être prescriptif », précise le texte. Lire aussi | Article réservé à nos abonnés De Meta AI à ChatGPT, le jeu dangereux d’une personnalisation toujours plus poussée des IA « Pont crucial » Mandaté par l’Assemblée, le secrétaire général de l’ONU, Antonio Guterres, qui a salué la création d’un « pont crucial entre la recherche de pointe sur l’IA et l’élaboration des politiques », va désormais lancer un appel à candidatures pour identifier les quarante futurs membres du groupe, qui siégeront pour un mandat de trois ans. « L’intelligence artificielle se développe à un rythme et à une échelle qui affectent tous les pays », a commenté la représentante permanente du Costa Rica auprès de l’ONU, Maritza Chan Valverde, qui a supervisé les négociations avec son homologue espagnol. « Avec cette résolution, les Nations unies réaffirment leur rôle central pour garantir que l’IA sera au service de l’humanité », a-t-elle insisté. « En fournissant des évaluations scientifiques rigoureuses et indépendantes,aidera la communauté internationale à anticiper les défis émergents et à prendre des décisions informées sur comment régir cette technologie transformatrice », a commenté le porte-parole du secrétaire général, Stéphane Dujarric. Le Monde avec AFP #lonu #dote #dun #groupe #dexperts
    L’ONU se dote d’un groupe d’experts scientifiques sur l’intelligence artificielle
    www.lemonde.fr
    Le stand Amazon Web Services à la Hannover Messe, l’une des plus grandes foires industrielles du monde, à Hanovre, en Allemagne, le 30 mars 2025. FABIAN BIMMER / REUTERS L’Assemblée générale de l’Organisation des Nations unies (ONU) a créé, mardi 26 août, un groupe d’experts scientifiques sur l’intelligence artificielle (IA) qui sera chargé d’aider la communauté internationale à prendre des décisions informées sur ce sujet sensible, comme le fait le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC). S’inquiétant du développement rapide de technologies révolutionnaires qui pourraient menacer la démocratie et les droits humains, les Etats membres de l’ONU s’étaient engagés, en septembre 2024, dans le « Pacte pour l’avenir », à mettre en place un tel groupe d’experts pour éclairer le dialogue international entre gouvernements et autres acteurs du secteur. Dans une résolution adoptée mardi, l’Assemblée générale a formellement créé ce « Groupe scientifique international indépendant de l’intelligence artificielle » qui devra fournir des « évaluations scientifiques fondées sur des données probantes dans lesquelles seront synthétisées et analysées les études existantes sur les promesses, les risques et les répercussions de l’intelligence artificielle ». Son rapport de synthèse annuel « servira à éclairer la prise de décisions, sans toutefois être prescriptif », précise le texte. Lire aussi | Article réservé à nos abonnés De Meta AI à ChatGPT, le jeu dangereux d’une personnalisation toujours plus poussée des IA « Pont crucial » Mandaté par l’Assemblée, le secrétaire général de l’ONU, Antonio Guterres, qui a salué la création d’un « pont crucial entre la recherche de pointe sur l’IA et l’élaboration des politiques », va désormais lancer un appel à candidatures pour identifier les quarante futurs membres du groupe, qui siégeront pour un mandat de trois ans. « L’intelligence artificielle se développe à un rythme et à une échelle qui affectent tous les pays », a commenté la représentante permanente du Costa Rica auprès de l’ONU, Maritza Chan Valverde, qui a supervisé les négociations avec son homologue espagnol. « Avec cette résolution, les Nations unies réaffirment leur rôle central pour garantir que l’IA sera au service de l’humanité », a-t-elle insisté. « En fournissant des évaluations scientifiques rigoureuses et indépendantes, [le groupe] aidera la communauté internationale à anticiper les défis émergents et à prendre des décisions informées sur comment régir cette technologie transformatrice », a commenté le porte-parole du secrétaire général, Stéphane Dujarric. Le Monde avec AFP
    Like
    Love
    Wow
    Sad
    Angry
    762
    · 2 Commentaires ·0 Parts
  • Elon Musk porte plainte contre Apple et OpenAI qu’il accuse de pratiques anticoncurrentielles

    Elon Musk à Grünheide, en Allemagne, le 22 mars 2022. PATRICK PLEUL/VIA REUTERS Le réseau social X et la start-up xAI, propriétés d’Elon Musk, ont porté plainte, lundi 25 août, contre Apple et OpenAI qu’ils accusent d’avoir formé une alliance illégale pour entraver la concurrence dans le domaine de l’intelligence artificiellegénérative sur les smartphones. Le milliardaire, qui a saisi une cour fédérale du Texas, affirme que le fabricant de l’iPhone et l’éditeur de ChatGPT se sont mis d’accord pour intégrer l’assistant IA aux smartphones d’Apple, tout en écartant des rivaux, comme Grok, l’assistant IA de xAI. « C’est l’histoire de deux monopoles qui unissent leurs forces pour assurer leur domination continue dans un monde désormais propulsé par la technologie la plus puissante jamais créée par l’humanité : l’intelligence artificielle », peut-on lire dans la plainte. X et xAI affirment qu’Apple détient 65 % du marché des smartphones aux Etats-Unis, tandis qu’OpenAI contrôlerait au moins 80 % du marché des assistants d’IA générative, grâce à ChatGPT. Apple et OpenAI ont annoncé leur partenariat en juin 2024, intégrant le célèbre assistant à certaines fonctionnalités de l’iPhone, notamment son assistant vocal Siri. Selon la plainte, cet accord donnerait à ChatGPT un accès exclusif à « des milliards de requêtes d’utilisateurs » provenant de centaines de millions d’appareils. Elon Musk accuse également Apple de manipuler le classement de sa plateforme de téléchargement des applications mobilespour favoriser l’application ChatGPT, tout en retardant l’approbation des mises à jour de l’application Grok. Ses entreprises réclament plusieurs milliards de dollars de dommages et intérêts ainsi qu’une injonction permanente pour mettre fin aux pratiques anticoncurrentielles qu’elles dénoncent. Lire aussi | Article réservé à nos abonnés Intelligence artificielle : les échanges aigres-doux entre Sam Altman et Mark Zuckerberg, nouveaux rivaux de la tech « Campagne acharnée » « Cette nouvelle plainte correspond bien au comportement récurrent de M. Musk, caractérisé par le harcèlement », a réagi un porte-parole d’OpenAI. Apple n’a pas répondu à une sollicitation de l’Agence France-Presse. Elon Musk a fait partie de l’équipe de onze personnes qui a fondé OpenAI en 2015, mais il a quitté l’entreprise en 2018 et ne cesse de l’attaquer sur X et devant les tribunaux depuis le succès phénoménal de ChatGPT à la fin de 2022. Il a entrepris une action en justice contre la star de la Silicon Valley qui aurait, selon lui, trahi ses valeurs, mais a aussi proposé de la racheter. OpenAI a riposté en avril avec une plainte contre le milliardaire, l’accusant de mener une « campagne acharnée » pour lui nuire. Newsletter Newsletter Le Monde Newsletter Suivez-nous sur WhatsApp Ce mois-ci, Elon Musk s’en est pris à Apple : « Apple agit de manière à rendre impossible pour toute entreprise d’IA autre qu’OpenAI d’atteindre la première place sur l’App Store, ce qui constitue une violation manifeste des règles de concurrence », a lancé le milliardaire sur X. Ces accusations ont provoqué une passe d’armes avec Sam Altman, cofondateur et patron d’OpenAI. « C’est une affirmation remarquable, compte tenu de ce que j’ai entendu dire à propos d’Elon, qui manipulerait X pour son propre bénéfice et celui de ses entreprises et pour nuire à ses concurrents ainsi qu’aux personnes qu’il n’apprécie pas », a-t-il réagi sur X. Sam Altman « ment comme il respire », a renchéri Elon Musk, qualifiant son message de « connerie ». Lire aussi | Article réservé à nos abonnés De Mark Zuckerberg à Elon Musk, le « boys club » de Palo Alto Le Monde avec AFP Réutiliser ce contenu
    #elon #musk #porte #plainte #contre
    Elon Musk porte plainte contre Apple et OpenAI qu’il accuse de pratiques anticoncurrentielles
    Elon Musk à Grünheide, en Allemagne, le 22 mars 2022. PATRICK PLEUL/VIA REUTERS Le réseau social X et la start-up xAI, propriétés d’Elon Musk, ont porté plainte, lundi 25 août, contre Apple et OpenAI qu’ils accusent d’avoir formé une alliance illégale pour entraver la concurrence dans le domaine de l’intelligence artificiellegénérative sur les smartphones. Le milliardaire, qui a saisi une cour fédérale du Texas, affirme que le fabricant de l’iPhone et l’éditeur de ChatGPT se sont mis d’accord pour intégrer l’assistant IA aux smartphones d’Apple, tout en écartant des rivaux, comme Grok, l’assistant IA de xAI. « C’est l’histoire de deux monopoles qui unissent leurs forces pour assurer leur domination continue dans un monde désormais propulsé par la technologie la plus puissante jamais créée par l’humanité : l’intelligence artificielle », peut-on lire dans la plainte. X et xAI affirment qu’Apple détient 65 % du marché des smartphones aux Etats-Unis, tandis qu’OpenAI contrôlerait au moins 80 % du marché des assistants d’IA générative, grâce à ChatGPT. Apple et OpenAI ont annoncé leur partenariat en juin 2024, intégrant le célèbre assistant à certaines fonctionnalités de l’iPhone, notamment son assistant vocal Siri. Selon la plainte, cet accord donnerait à ChatGPT un accès exclusif à « des milliards de requêtes d’utilisateurs » provenant de centaines de millions d’appareils. Elon Musk accuse également Apple de manipuler le classement de sa plateforme de téléchargement des applications mobilespour favoriser l’application ChatGPT, tout en retardant l’approbation des mises à jour de l’application Grok. Ses entreprises réclament plusieurs milliards de dollars de dommages et intérêts ainsi qu’une injonction permanente pour mettre fin aux pratiques anticoncurrentielles qu’elles dénoncent. Lire aussi | Article réservé à nos abonnés Intelligence artificielle : les échanges aigres-doux entre Sam Altman et Mark Zuckerberg, nouveaux rivaux de la tech « Campagne acharnée » « Cette nouvelle plainte correspond bien au comportement récurrent de M. Musk, caractérisé par le harcèlement », a réagi un porte-parole d’OpenAI. Apple n’a pas répondu à une sollicitation de l’Agence France-Presse. Elon Musk a fait partie de l’équipe de onze personnes qui a fondé OpenAI en 2015, mais il a quitté l’entreprise en 2018 et ne cesse de l’attaquer sur X et devant les tribunaux depuis le succès phénoménal de ChatGPT à la fin de 2022. Il a entrepris une action en justice contre la star de la Silicon Valley qui aurait, selon lui, trahi ses valeurs, mais a aussi proposé de la racheter. OpenAI a riposté en avril avec une plainte contre le milliardaire, l’accusant de mener une « campagne acharnée » pour lui nuire. Newsletter Newsletter Le Monde Newsletter Suivez-nous sur WhatsApp Ce mois-ci, Elon Musk s’en est pris à Apple : « Apple agit de manière à rendre impossible pour toute entreprise d’IA autre qu’OpenAI d’atteindre la première place sur l’App Store, ce qui constitue une violation manifeste des règles de concurrence », a lancé le milliardaire sur X. Ces accusations ont provoqué une passe d’armes avec Sam Altman, cofondateur et patron d’OpenAI. « C’est une affirmation remarquable, compte tenu de ce que j’ai entendu dire à propos d’Elon, qui manipulerait X pour son propre bénéfice et celui de ses entreprises et pour nuire à ses concurrents ainsi qu’aux personnes qu’il n’apprécie pas », a-t-il réagi sur X. Sam Altman « ment comme il respire », a renchéri Elon Musk, qualifiant son message de « connerie ». Lire aussi | Article réservé à nos abonnés De Mark Zuckerberg à Elon Musk, le « boys club » de Palo Alto Le Monde avec AFP Réutiliser ce contenu #elon #musk #porte #plainte #contre
    Elon Musk porte plainte contre Apple et OpenAI qu’il accuse de pratiques anticoncurrentielles
    www.lemonde.fr
    Elon Musk à Grünheide, en Allemagne, le 22 mars 2022. PATRICK PLEUL/VIA REUTERS Le réseau social X et la start-up xAI, propriétés d’Elon Musk, ont porté plainte, lundi 25 août, contre Apple et OpenAI qu’ils accusent d’avoir formé une alliance illégale pour entraver la concurrence dans le domaine de l’intelligence artificielle (IA) générative sur les smartphones. Le milliardaire, qui a saisi une cour fédérale du Texas, affirme que le fabricant de l’iPhone et l’éditeur de ChatGPT se sont mis d’accord pour intégrer l’assistant IA aux smartphones d’Apple, tout en écartant des rivaux, comme Grok, l’assistant IA de xAI. « C’est l’histoire de deux monopoles qui unissent leurs forces pour assurer leur domination continue dans un monde désormais propulsé par la technologie la plus puissante jamais créée par l’humanité : l’intelligence artificielle », peut-on lire dans la plainte. X et xAI affirment qu’Apple détient 65 % du marché des smartphones aux Etats-Unis, tandis qu’OpenAI contrôlerait au moins 80 % du marché des assistants d’IA générative, grâce à ChatGPT. Apple et OpenAI ont annoncé leur partenariat en juin 2024, intégrant le célèbre assistant à certaines fonctionnalités de l’iPhone, notamment son assistant vocal Siri. Selon la plainte, cet accord donnerait à ChatGPT un accès exclusif à « des milliards de requêtes d’utilisateurs » provenant de centaines de millions d’appareils. Elon Musk accuse également Apple de manipuler le classement de sa plateforme de téléchargement des applications mobiles (App Store) pour favoriser l’application ChatGPT, tout en retardant l’approbation des mises à jour de l’application Grok. Ses entreprises réclament plusieurs milliards de dollars de dommages et intérêts ainsi qu’une injonction permanente pour mettre fin aux pratiques anticoncurrentielles qu’elles dénoncent. Lire aussi | Article réservé à nos abonnés Intelligence artificielle : les échanges aigres-doux entre Sam Altman et Mark Zuckerberg, nouveaux rivaux de la tech « Campagne acharnée » « Cette nouvelle plainte correspond bien au comportement récurrent de M. Musk, caractérisé par le harcèlement », a réagi un porte-parole d’OpenAI. Apple n’a pas répondu à une sollicitation de l’Agence France-Presse. Elon Musk a fait partie de l’équipe de onze personnes qui a fondé OpenAI en 2015, mais il a quitté l’entreprise en 2018 et ne cesse de l’attaquer sur X et devant les tribunaux depuis le succès phénoménal de ChatGPT à la fin de 2022. Il a entrepris une action en justice contre la star de la Silicon Valley qui aurait, selon lui, trahi ses valeurs, mais a aussi proposé de la racheter. OpenAI a riposté en avril avec une plainte contre le milliardaire, l’accusant de mener une « campagne acharnée » pour lui nuire. Newsletter Newsletter Le Monde Newsletter Suivez-nous sur WhatsApp Ce mois-ci, Elon Musk s’en est pris à Apple : « Apple agit de manière à rendre impossible pour toute entreprise d’IA autre qu’OpenAI d’atteindre la première place sur l’App Store, ce qui constitue une violation manifeste des règles de concurrence », a lancé le milliardaire sur X. Ces accusations ont provoqué une passe d’armes avec Sam Altman, cofondateur et patron d’OpenAI. « C’est une affirmation remarquable, compte tenu de ce que j’ai entendu dire à propos d’Elon, qui manipulerait X pour son propre bénéfice et celui de ses entreprises et pour nuire à ses concurrents ainsi qu’aux personnes qu’il n’apprécie pas », a-t-il réagi sur X. Sam Altman « ment comme il respire », a renchéri Elon Musk, qualifiant son message de « connerie ». Lire aussi | Article réservé à nos abonnés De Mark Zuckerberg à Elon Musk, le « boys club » de Palo Alto Le Monde avec AFP Réutiliser ce contenu
    Like
    Love
    Wow
    Angry
    Sad
    645
    · 2 Commentaires ·0 Parts
  • De Meta AI à ChatGPT, le jeu dangereux d’une personnalisation toujours plus poussée des IA

    SOLÈNE REVENEY / « LE MONDE » C’est un paradoxe dans lequel bien des éditeurs d’intelligences artificiellessont empêtrés : pourquoi investir tant d’argent et d’efforts dans la création d’IA plus sûres et plus neutres si, une fois commercialisés, ces robots conversationnels peuvent être largement dévoyés ? Prenons le cas d’OpenAI. En avril, l’éditeur de ChatGPT dit réfléchir publiquement à rendre son robot conversationnel moins obséquieux, car il risque d’engager des personnes fragiles dans une dépendance malsaine, selon le constat dressé par ses propres chercheurs un mois auparavant. Plusieurs affaires médiatiques, rapportées notamment par le New York Times, Ars Technica, Futurism ou l’agence Reuters, ont illustré la dangereuse spirale dans laquelle certains utilisateurs peuvent tomber, avec à la clé un décrochage parfois fatal avec la réalité. Alors le 7 août, OpenAI saute le pas, annonçant une nouvelle version de son robot, GPT-5. Son ton est résolument plus froid, et il surveille désormais la durée des conversations pour suggérer des pauses quand il le juge nécessaire. Lire aussi | Article réservé à nos abonnés ChatGPT : les débuts difficiles de GPT-5, le nouveau modèle de langage d’OpenAI, jugé moins efficace et moins « amical » L’entreprise applique ainsi deux recommandations-clés issues de chercheurs en IA parmi les plus critiques, dont des experts de Google, auteurs en 2024 d’une longue recension des dangers de l’IA. Dans ce document, ceux-ci anticipent un monde où la flatterie des robots réduit « les occasions qu’ont les humains de grandir et de se développerdevenir de meilleures versions d’eux-mêmes ». Voire « un monde où les utilisateurs abandonnent les interactions compliquées et imparfaitesavec les humains en faveur des échanges sans frictions fournis par les IA ». Il vous reste 73.15% de cet article à lire. La suite est réservée aux abonnés.
    #meta #chatgpt #jeu #dangereux #dune
    De Meta AI à ChatGPT, le jeu dangereux d’une personnalisation toujours plus poussée des IA
    SOLÈNE REVENEY / « LE MONDE » C’est un paradoxe dans lequel bien des éditeurs d’intelligences artificiellessont empêtrés : pourquoi investir tant d’argent et d’efforts dans la création d’IA plus sûres et plus neutres si, une fois commercialisés, ces robots conversationnels peuvent être largement dévoyés ? Prenons le cas d’OpenAI. En avril, l’éditeur de ChatGPT dit réfléchir publiquement à rendre son robot conversationnel moins obséquieux, car il risque d’engager des personnes fragiles dans une dépendance malsaine, selon le constat dressé par ses propres chercheurs un mois auparavant. Plusieurs affaires médiatiques, rapportées notamment par le New York Times, Ars Technica, Futurism ou l’agence Reuters, ont illustré la dangereuse spirale dans laquelle certains utilisateurs peuvent tomber, avec à la clé un décrochage parfois fatal avec la réalité. Alors le 7 août, OpenAI saute le pas, annonçant une nouvelle version de son robot, GPT-5. Son ton est résolument plus froid, et il surveille désormais la durée des conversations pour suggérer des pauses quand il le juge nécessaire. Lire aussi | Article réservé à nos abonnés ChatGPT : les débuts difficiles de GPT-5, le nouveau modèle de langage d’OpenAI, jugé moins efficace et moins « amical » L’entreprise applique ainsi deux recommandations-clés issues de chercheurs en IA parmi les plus critiques, dont des experts de Google, auteurs en 2024 d’une longue recension des dangers de l’IA. Dans ce document, ceux-ci anticipent un monde où la flatterie des robots réduit « les occasions qu’ont les humains de grandir et de se développerdevenir de meilleures versions d’eux-mêmes ». Voire « un monde où les utilisateurs abandonnent les interactions compliquées et imparfaitesavec les humains en faveur des échanges sans frictions fournis par les IA ». Il vous reste 73.15% de cet article à lire. La suite est réservée aux abonnés. #meta #chatgpt #jeu #dangereux #dune
    De Meta AI à ChatGPT, le jeu dangereux d’une personnalisation toujours plus poussée des IA
    www.lemonde.fr
    SOLÈNE REVENEY / « LE MONDE » C’est un paradoxe dans lequel bien des éditeurs d’intelligences artificielles (IA) sont empêtrés : pourquoi investir tant d’argent et d’efforts dans la création d’IA plus sûres et plus neutres si, une fois commercialisés, ces robots conversationnels peuvent être largement dévoyés ? Prenons le cas d’OpenAI. En avril, l’éditeur de ChatGPT dit réfléchir publiquement à rendre son robot conversationnel moins obséquieux, car il risque d’engager des personnes fragiles dans une dépendance malsaine, selon le constat dressé par ses propres chercheurs un mois auparavant. Plusieurs affaires médiatiques, rapportées notamment par le New York Times, Ars Technica, Futurism ou l’agence Reuters, ont illustré la dangereuse spirale dans laquelle certains utilisateurs peuvent tomber, avec à la clé un décrochage parfois fatal avec la réalité. Alors le 7 août, OpenAI saute le pas, annonçant une nouvelle version de son robot, GPT-5. Son ton est résolument plus froid, et il surveille désormais la durée des conversations pour suggérer des pauses quand il le juge nécessaire. Lire aussi | Article réservé à nos abonnés ChatGPT : les débuts difficiles de GPT-5, le nouveau modèle de langage d’OpenAI, jugé moins efficace et moins « amical » L’entreprise applique ainsi deux recommandations-clés issues de chercheurs en IA parmi les plus critiques, dont des experts de Google, auteurs en 2024 d’une longue recension des dangers de l’IA. Dans ce document, ceux-ci anticipent un monde où la flatterie des robots réduit « les occasions qu’ont les humains de grandir et de se développer [pour] devenir de meilleures versions d’eux-mêmes ». Voire « un monde où les utilisateurs abandonnent les interactions compliquées et imparfaites (…) avec les humains en faveur des échanges sans frictions fournis par les IA ». Il vous reste 73.15% de cet article à lire. La suite est réservée aux abonnés.
    Like
    Love
    Wow
    Sad
    Angry
    542
    · 2 Commentaires ·0 Parts
  • Intelligence artificielle : les économistes s’inquiètent d’un risque de bulle financière

    Des investissements mirobolants, des valorisations boursières extravagantes et trop peu de profits pour l’instant, à l’exception du fabricant de microprocesseurs Nvidia : la folie de l’intelligence artificielleest-elle en passe de se transformer en bulle financière ? C’est la mise en garde lancée mi-août par Sam Altman, le PDG d’OpenAI. « Si l’on considère la plupart des bulles financières de l’histoire, comme la bulle Internet, on constate qu’il y avait une réalité : Internet était un phénomène majeur, les gens étaient surexcités. Sommes-nous dans une phase où les investisseurs dans leur ensemble sont surexcités par l’IA ? Je pense que oui. L’IA est-elle la chose la plus importante à venir depuis très longtemps ? Je pense que oui également », a-t-il déclaré à des journalistes américains. Lire aussi | Article réservé à nos abonnés IA : Donald Trump lâche la bride à la Silicon Valley pour assurer aux Etats-Unis « une domination mondiale » L’inquiétude est de plus en plus partagée. « Je m’attends à un krach »,Technological Revolutions and Financial Capital : The Dynamics of Bubbles and Golden Ages, « révolutions technologiques et capital financier, les dynamiques des bulles et des âges d’or »,« Des trois acteurs en jeu, les investisseurs, les entreprises d’IA et les utilisateurs, les seuls à réaliser des profits sont les acteurs financiers dont les valorisations augmentent. C’est une situation de bulle typique : des plus-values ​​élevées et des profits faibles. » L’affaire a un petit goût de déjà-vu pour l’économiste, réputée pour ses travaux sur l’innovation, qui a examiné les cinq révolutions industrielles majeures : le métier à tisser mû par un moulin à aubes en Angleterre, la locomotive à vapeur de George Stephenson, l’acier d’Andrew Carnegie à Pittsburgh, la chaîne d’assemblage de Fordet le premier microprocesseur Intel. Toutes ont révolutionné l’Occident. Lire aussi | Article réservé à nos abonnés Après le métavers, Mark Zuckerberg investit des dizaines de milliards de dollars dans la « superintelligence » grâce à ses résultats mirobolants Mais avant de s’installer durablement et de diffuser leurs effets à l’économie, ces innovations ont provoqué une frénésie d’investissements – trop de canaux en Angleterre, trop de chemins de fer peu rentables — et de spéculation financière détachée des réalités, provoquant krachs ou corrections boursières. Beaucoup, sur les marchés, ont en mémoire l’éclatement de la bulle Internet en l’an 2000. « La bulle de l’IA est aujourd’hui plus importante que celle des technologies de l’information des années 1990 », estimait mi-juillet Torsten Slok, économiste en chef du fonds Apollo. Il vous reste 73.74% de cet article à lire. La suite est réservée aux abonnés.
    #intelligence #artificielle #les #économistes #sinquiètent
    Intelligence artificielle : les économistes s’inquiètent d’un risque de bulle financière
    Des investissements mirobolants, des valorisations boursières extravagantes et trop peu de profits pour l’instant, à l’exception du fabricant de microprocesseurs Nvidia : la folie de l’intelligence artificielleest-elle en passe de se transformer en bulle financière ? C’est la mise en garde lancée mi-août par Sam Altman, le PDG d’OpenAI. « Si l’on considère la plupart des bulles financières de l’histoire, comme la bulle Internet, on constate qu’il y avait une réalité : Internet était un phénomène majeur, les gens étaient surexcités. Sommes-nous dans une phase où les investisseurs dans leur ensemble sont surexcités par l’IA ? Je pense que oui. L’IA est-elle la chose la plus importante à venir depuis très longtemps ? Je pense que oui également », a-t-il déclaré à des journalistes américains. Lire aussi | Article réservé à nos abonnés IA : Donald Trump lâche la bride à la Silicon Valley pour assurer aux Etats-Unis « une domination mondiale » L’inquiétude est de plus en plus partagée. « Je m’attends à un krach »,Technological Revolutions and Financial Capital : The Dynamics of Bubbles and Golden Ages, « révolutions technologiques et capital financier, les dynamiques des bulles et des âges d’or »,« Des trois acteurs en jeu, les investisseurs, les entreprises d’IA et les utilisateurs, les seuls à réaliser des profits sont les acteurs financiers dont les valorisations augmentent. C’est une situation de bulle typique : des plus-values ​​élevées et des profits faibles. » L’affaire a un petit goût de déjà-vu pour l’économiste, réputée pour ses travaux sur l’innovation, qui a examiné les cinq révolutions industrielles majeures : le métier à tisser mû par un moulin à aubes en Angleterre, la locomotive à vapeur de George Stephenson, l’acier d’Andrew Carnegie à Pittsburgh, la chaîne d’assemblage de Fordet le premier microprocesseur Intel. Toutes ont révolutionné l’Occident. Lire aussi | Article réservé à nos abonnés Après le métavers, Mark Zuckerberg investit des dizaines de milliards de dollars dans la « superintelligence » grâce à ses résultats mirobolants Mais avant de s’installer durablement et de diffuser leurs effets à l’économie, ces innovations ont provoqué une frénésie d’investissements – trop de canaux en Angleterre, trop de chemins de fer peu rentables — et de spéculation financière détachée des réalités, provoquant krachs ou corrections boursières. Beaucoup, sur les marchés, ont en mémoire l’éclatement de la bulle Internet en l’an 2000. « La bulle de l’IA est aujourd’hui plus importante que celle des technologies de l’information des années 1990 », estimait mi-juillet Torsten Slok, économiste en chef du fonds Apollo. Il vous reste 73.74% de cet article à lire. La suite est réservée aux abonnés. #intelligence #artificielle #les #économistes #sinquiètent
    Intelligence artificielle : les économistes s’inquiètent d’un risque de bulle financière
    www.lemonde.fr
    Des investissements mirobolants, des valorisations boursières extravagantes et trop peu de profits pour l’instant, à l’exception du fabricant de microprocesseurs Nvidia : la folie de l’intelligence artificielle (IA) est-elle en passe de se transformer en bulle financière ? C’est la mise en garde lancée mi-août par Sam Altman, le PDG d’OpenAI. « Si l’on considère la plupart des bulles financières de l’histoire, comme la bulle Internet, on constate qu’il y avait une réalité : Internet était un phénomène majeur, les gens étaient surexcités. Sommes-nous dans une phase où les investisseurs dans leur ensemble sont surexcités par l’IA ? Je pense que oui. L’IA est-elle la chose la plus importante à venir depuis très longtemps ? Je pense que oui également », a-t-il déclaré à des journalistes américains. Lire aussi | Article réservé à nos abonnés IA : Donald Trump lâche la bride à la Silicon Valley pour assurer aux Etats-Unis « une domination mondiale » L’inquiétude est de plus en plus partagée. « Je m’attends à un krach »,Technological Revolutions and Financial Capital : The Dynamics of Bubbles and Golden Ages, « révolutions technologiques et capital financier, les dynamiques des bulles et des âges d’or »,« Des trois acteurs en jeu, les investisseurs, les entreprises d’IA et les utilisateurs, les seuls à réaliser des profits sont les acteurs financiers dont les valorisations augmentent. C’est une situation de bulle typique : des plus-values ​​élevées et des profits faibles. » L’affaire a un petit goût de déjà-vu pour l’économiste, réputée pour ses travaux sur l’innovation, qui a examiné les cinq révolutions industrielles majeures : le métier à tisser mû par un moulin à aubes en Angleterre (1771), la locomotive à vapeur de George Stephenson (1829), l’acier d’Andrew Carnegie à Pittsburgh (1875), la chaîne d’assemblage de Ford (1913) et le premier microprocesseur Intel (1971). Toutes ont révolutionné l’Occident. Lire aussi | Article réservé à nos abonnés Après le métavers, Mark Zuckerberg investit des dizaines de milliards de dollars dans la « superintelligence » grâce à ses résultats mirobolants Mais avant de s’installer durablement et de diffuser leurs effets à l’économie, ces innovations ont provoqué une frénésie d’investissements – trop de canaux en Angleterre, trop de chemins de fer peu rentables — et de spéculation financière détachée des réalités, provoquant krachs ou corrections boursières. Beaucoup, sur les marchés, ont en mémoire l’éclatement de la bulle Internet en l’an 2000. « La bulle de l’IA est aujourd’hui plus importante que celle des technologies de l’information des années 1990 », estimait mi-juillet Torsten Slok, économiste en chef du fonds Apollo. Il vous reste 73.74% de cet article à lire. La suite est réservée aux abonnés.
    Like
    Love
    Wow
    Sad
    Angry
    950
    · 2 Commentaires ·0 Parts
  • « En choisissant l’IA pour sa politique mémorielle, le gouvernement automatise un travail intellectuel »

    Le 27 mai, Journée nationale de la Résistance, le gouvernement français a publié une vidéo retraçant la vie d’une résistante sous l’Occupation. Générée à l’aide d’une intelligence artificielle, elle est historiquement aberrante, se terminant notamment par une scène de la Libération où apparaît un soldat de la Wehrmacht. Critiquée pour abolir la frontière entre le vrai et le faux, elle a été retirée. Le service d’information du gouvernement avait déjà fait appel à une IA à des fins commémoratives quelques semaines plus tôt : une publication « artificielle », toujours en ligne sur TikTok, commémorait le droit de vote des femmes, figurant une France de 1945 esthétisée, sans aucune trace de la guerre, et montrant, outre d’autres incohérences, un France-Journal qui n’a jamais existé. Pour comprendre ces représentations absurdes, rappelons comment les IA génératives fonctionnent. Des jeux de données massifs sont utilisés pour leur création après une phase d’entraînement dont sont déduits des motifs statistiquement significatifs, qui servent ensuite à créer des textes, des images et des vidéos. Cette logique est probabiliste : ce sont des perroquets stochastiques, c’est-à-dire imprévisibles. Lire aussi le décryptage | Article réservé à nos abonnés Les IA, des « boîtes noires » dont les chercheurs tentent de déchiffrer le fonctionnement Les IA génératives, capables de créer des documents imitant les traces du passé, instaurent ainsi une médiation nouvelle entre nous et notre histoire, fondamentalement différente de celle opérée par les archivistes, les historiens et les historiennes. Ainsi, une requête entrée pour générer une vidéo sur une résistante française active des motifs liés à la seconde guerre mondiale : l’apparition d’un soldatde la Wehrmacht est statistiquement pertinente, mais incohérente à la Libération. LÉA GIRARDOT / LE MONDE Il vous reste 52.13% de cet article à lire. La suite est réservée aux abonnés.
    #choisissant #lia #pour #politique #mémorielle
    « En choisissant l’IA pour sa politique mémorielle, le gouvernement automatise un travail intellectuel »
    Le 27 mai, Journée nationale de la Résistance, le gouvernement français a publié une vidéo retraçant la vie d’une résistante sous l’Occupation. Générée à l’aide d’une intelligence artificielle, elle est historiquement aberrante, se terminant notamment par une scène de la Libération où apparaît un soldat de la Wehrmacht. Critiquée pour abolir la frontière entre le vrai et le faux, elle a été retirée. Le service d’information du gouvernement avait déjà fait appel à une IA à des fins commémoratives quelques semaines plus tôt : une publication « artificielle », toujours en ligne sur TikTok, commémorait le droit de vote des femmes, figurant une France de 1945 esthétisée, sans aucune trace de la guerre, et montrant, outre d’autres incohérences, un France-Journal qui n’a jamais existé. Pour comprendre ces représentations absurdes, rappelons comment les IA génératives fonctionnent. Des jeux de données massifs sont utilisés pour leur création après une phase d’entraînement dont sont déduits des motifs statistiquement significatifs, qui servent ensuite à créer des textes, des images et des vidéos. Cette logique est probabiliste : ce sont des perroquets stochastiques, c’est-à-dire imprévisibles. Lire aussi le décryptage | Article réservé à nos abonnés Les IA, des « boîtes noires » dont les chercheurs tentent de déchiffrer le fonctionnement Les IA génératives, capables de créer des documents imitant les traces du passé, instaurent ainsi une médiation nouvelle entre nous et notre histoire, fondamentalement différente de celle opérée par les archivistes, les historiens et les historiennes. Ainsi, une requête entrée pour générer une vidéo sur une résistante française active des motifs liés à la seconde guerre mondiale : l’apparition d’un soldatde la Wehrmacht est statistiquement pertinente, mais incohérente à la Libération. LÉA GIRARDOT / LE MONDE Il vous reste 52.13% de cet article à lire. La suite est réservée aux abonnés. #choisissant #lia #pour #politique #mémorielle
    « En choisissant l’IA pour sa politique mémorielle, le gouvernement automatise un travail intellectuel »
    www.lemonde.fr
    Le 27 mai, Journée nationale de la Résistance, le gouvernement français a publié une vidéo retraçant la vie d’une résistante sous l’Occupation. Générée à l’aide d’une intelligence artificielle (IA), elle est historiquement aberrante, se terminant notamment par une scène de la Libération où apparaît un soldat de la Wehrmacht. Critiquée pour abolir la frontière entre le vrai et le faux, elle a été retirée. Le service d’information du gouvernement avait déjà fait appel à une IA à des fins commémoratives quelques semaines plus tôt : une publication « artificielle », toujours en ligne sur TikTok, commémorait le droit de vote des femmes, figurant une France de 1945 esthétisée, sans aucune trace de la guerre, et montrant, outre d’autres incohérences, un France-Journal qui n’a jamais existé. Pour comprendre ces représentations absurdes, rappelons comment les IA génératives fonctionnent. Des jeux de données massifs sont utilisés pour leur création après une phase d’entraînement dont sont déduits des motifs statistiquement significatifs (patterns), qui servent ensuite à créer des textes, des images et des vidéos. Cette logique est probabiliste : ce sont des perroquets stochastiques, c’est-à-dire imprévisibles. Lire aussi le décryptage | Article réservé à nos abonnés Les IA, des « boîtes noires » dont les chercheurs tentent de déchiffrer le fonctionnement Les IA génératives, capables de créer des documents imitant les traces du passé, instaurent ainsi une médiation nouvelle entre nous et notre histoire, fondamentalement différente de celle opérée par les archivistes, les historiens et les historiennes. Ainsi, une requête entrée pour générer une vidéo sur une résistante française active des motifs liés à la seconde guerre mondiale : l’apparition d’un soldat (heureux) de la Wehrmacht est statistiquement pertinente, mais incohérente à la Libération. LÉA GIRARDOT / LE MONDE Il vous reste 52.13% de cet article à lire. La suite est réservée aux abonnés.
    Like
    Love
    Wow
    Sad
    Angry
    481
    · 2 Commentaires ·0 Parts
  • Sébastien Crozier, syndicaliste : « Standardiser la voix, c’est nier qu’une intonation est souvent une histoire »

    Sous prétexte d’amélioration, une vague d’outils d’analyse vocale déferle dans les entreprises. L’intelligence artificiellepromet plus d’objectivité et de performance. En réalité, c’est un travail placé sous surveillance émotionnelle. « Votre appel peut être enregistré à des fins de formation » : cette phrase familière camoufle désormais bien plus qu’un simple enregistrement. Derrière la collecte, il y a l’analyse ; derrière l’analyse, une interprétation ; et derrière l’interprétation, une intention. Le speech analytics, qui détecte stress, fatigue, doute ou enthousiasme, sort des centres d’appels pour pénétrer nos services internes, nos interactions professionnelles, nos entretiens d’évaluation… Les outils attribuent des scores, déclenchent des alertes. Demain, ils pourraient recommander promotions ou sanctions. La voix devient une simple donnée biométrique. Pourtant, elle n’est pas qu’un signal. Elle vibre, hésite, tremble, reflète nos journées, nos doutes, nos émotions. La standardiser, c’est nier qu’une intonation est souvent une histoire. Jugée « inappropriée » ? Alerte. Rythme jugé trop lent ? Risque de désengagement. Ton jugé trop vif ? Possible tension. Les autorités françaises et européennes l’ont compris : la voix est une donnée hautement sensible, permettant d’identifier une personne, mais aussi d’inférer son état émotionnel ou psychologique. Son traitement est interdit, sauf consentement libre et éclairé, ainsi que le prévoit le règlement général sur la protection des données– bientôt renforcé par l’IA Act. Mais en entreprise, que vaut ce consentement « libre » ? Peut-on refuser un outil imposé par la hiérarchie, comprendre ce que l’algorithme « a entendu » ou même contester ses conclusions ? Le consentement n’est pas une simple case à cocher, mais un droit fondamental. Lire aussi | Article réservé à nos abonnés L’entreprise américaine Palantir suspectée de créer une base de données géante sur les citoyens De nombreuses études confirment les risques : stress accru des salariés sous écoute permanente, autocensure, affaiblissement des échanges spontanés, rupture de confiance, déshumanisation du travail. S’y ajoutent des biais matériels ou algorithmiques, comme la compression numérique, le filtrage des fréquences, l’altération du timbre par les réseaux téléphoniques ou par VoIP, qui pénalisant certains accents, voix féminines ou styles culturels. Il vous reste 50.04% de cet article à lire. La suite est réservée aux abonnés.
    #sébastien #crozier #syndicaliste #standardiser #voix
    Sébastien Crozier, syndicaliste : « Standardiser la voix, c’est nier qu’une intonation est souvent une histoire »
    Sous prétexte d’amélioration, une vague d’outils d’analyse vocale déferle dans les entreprises. L’intelligence artificiellepromet plus d’objectivité et de performance. En réalité, c’est un travail placé sous surveillance émotionnelle. « Votre appel peut être enregistré à des fins de formation » : cette phrase familière camoufle désormais bien plus qu’un simple enregistrement. Derrière la collecte, il y a l’analyse ; derrière l’analyse, une interprétation ; et derrière l’interprétation, une intention. Le speech analytics, qui détecte stress, fatigue, doute ou enthousiasme, sort des centres d’appels pour pénétrer nos services internes, nos interactions professionnelles, nos entretiens d’évaluation… Les outils attribuent des scores, déclenchent des alertes. Demain, ils pourraient recommander promotions ou sanctions. La voix devient une simple donnée biométrique. Pourtant, elle n’est pas qu’un signal. Elle vibre, hésite, tremble, reflète nos journées, nos doutes, nos émotions. La standardiser, c’est nier qu’une intonation est souvent une histoire. Jugée « inappropriée » ? Alerte. Rythme jugé trop lent ? Risque de désengagement. Ton jugé trop vif ? Possible tension. Les autorités françaises et européennes l’ont compris : la voix est une donnée hautement sensible, permettant d’identifier une personne, mais aussi d’inférer son état émotionnel ou psychologique. Son traitement est interdit, sauf consentement libre et éclairé, ainsi que le prévoit le règlement général sur la protection des données– bientôt renforcé par l’IA Act. Mais en entreprise, que vaut ce consentement « libre » ? Peut-on refuser un outil imposé par la hiérarchie, comprendre ce que l’algorithme « a entendu » ou même contester ses conclusions ? Le consentement n’est pas une simple case à cocher, mais un droit fondamental. Lire aussi | Article réservé à nos abonnés L’entreprise américaine Palantir suspectée de créer une base de données géante sur les citoyens De nombreuses études confirment les risques : stress accru des salariés sous écoute permanente, autocensure, affaiblissement des échanges spontanés, rupture de confiance, déshumanisation du travail. S’y ajoutent des biais matériels ou algorithmiques, comme la compression numérique, le filtrage des fréquences, l’altération du timbre par les réseaux téléphoniques ou par VoIP, qui pénalisant certains accents, voix féminines ou styles culturels. Il vous reste 50.04% de cet article à lire. La suite est réservée aux abonnés. #sébastien #crozier #syndicaliste #standardiser #voix
    Sébastien Crozier, syndicaliste : « Standardiser la voix, c’est nier qu’une intonation est souvent une histoire »
    www.lemonde.fr
    Sous prétexte d’amélioration, une vague d’outils d’analyse vocale déferle dans les entreprises. L’intelligence artificielle (IA) promet plus d’objectivité et de performance. En réalité, c’est un travail placé sous surveillance émotionnelle. « Votre appel peut être enregistré à des fins de formation » : cette phrase familière camoufle désormais bien plus qu’un simple enregistrement. Derrière la collecte, il y a l’analyse ; derrière l’analyse, une interprétation ; et derrière l’interprétation, une intention. Le speech analytics, qui détecte stress, fatigue, doute ou enthousiasme, sort des centres d’appels pour pénétrer nos services internes, nos interactions professionnelles, nos entretiens d’évaluation… Les outils attribuent des scores, déclenchent des alertes. Demain, ils pourraient recommander promotions ou sanctions. La voix devient une simple donnée biométrique. Pourtant, elle n’est pas qu’un signal. Elle vibre, hésite, tremble, reflète nos journées, nos doutes, nos émotions. La standardiser, c’est nier qu’une intonation est souvent une histoire. Jugée « inappropriée » ? Alerte. Rythme jugé trop lent ? Risque de désengagement. Ton jugé trop vif ? Possible tension. Les autorités françaises et européennes l’ont compris : la voix est une donnée hautement sensible, permettant d’identifier une personne, mais aussi d’inférer son état émotionnel ou psychologique. Son traitement est interdit, sauf consentement libre et éclairé, ainsi que le prévoit le règlement général sur la protection des données (RGPD) – bientôt renforcé par l’IA Act. Mais en entreprise, que vaut ce consentement « libre » ? Peut-on refuser un outil imposé par la hiérarchie, comprendre ce que l’algorithme « a entendu » ou même contester ses conclusions ? Le consentement n’est pas une simple case à cocher, mais un droit fondamental. Lire aussi | Article réservé à nos abonnés L’entreprise américaine Palantir suspectée de créer une base de données géante sur les citoyens De nombreuses études confirment les risques : stress accru des salariés sous écoute permanente, autocensure, affaiblissement des échanges spontanés, rupture de confiance, déshumanisation du travail. S’y ajoutent des biais matériels ou algorithmiques, comme la compression numérique, le filtrage des fréquences, l’altération du timbre par les réseaux téléphoniques ou par VoIP [« voix sur IP », une technique qui permet de transmettre des appels sur Internet], qui pénalisant certains accents, voix féminines ou styles culturels. Il vous reste 50.04% de cet article à lire. La suite est réservée aux abonnés.
    Like
    Love
    Wow
    Sad
    Angry
    444
    · 2 Commentaires ·0 Parts
  • Au Danemark, l’IA autorisée au baccalauréat à partir de 2026

    Au Danemark, certains lycéens pourront utiliser l’intelligence artificielleà partir de 2026 pendant l’épreuve orale d’anglais du baccalauréat, a annoncé, vendredi 22 août, le ministère de l’éducation du pays scandinave. Lors de cet examen, les élèves pourront recourir à l’IA pendant la phase de préparation de l’oral : une fois le sujet tiré, chaque élève disposera d’une heure de préparation, au cours de laquelle « ilpermis d’utiliser tous les outils, y compris l’IA générative », ce qui n’était pas le cas jusqu’à présent. Il devra ensuite faire sa présentation orale devant l’examinateur. Le Danemark, qui autorise l’usage encadré d’Internet pendant les examens depuis 2008, cherche à encourager, à travers un cadre strict, le développement numérique dans les apprentissages. Lire aussi | Article réservé à nos abonnés « Nous sommes beaucoup trop pressés de confier à l’IA la gestion du monde au lieu de mesurer ses limites » « Nous lançons ces expérimentations afin de trouver le bon équilibre », a dit le ministre de l’éducation, Mattias Tesfaye, cité dans un communiqué. « Lorsque les élèves évoluent dans des mondes à la fois analogiques et numériques, nous les préparons de la meilleure manière possible à la réalité après l’école », a-t-il estimé. Cette expérience, qui est ouverte aux lycées qui se porteront volontaires, n’est valable qu’en ce qui concerne la filière générale. Lire aussi | Article réservé à nos abonnés L’IA, mes étudiants et moi : « Le semestre passé constitue la pire expérience de ma vie d’enseignant » Le Monde avec AFP Réutiliser ce contenu
    #danemark #lia #autorisée #baccalauréat #partir
    Au Danemark, l’IA autorisée au baccalauréat à partir de 2026
    Au Danemark, certains lycéens pourront utiliser l’intelligence artificielleà partir de 2026 pendant l’épreuve orale d’anglais du baccalauréat, a annoncé, vendredi 22 août, le ministère de l’éducation du pays scandinave. Lors de cet examen, les élèves pourront recourir à l’IA pendant la phase de préparation de l’oral : une fois le sujet tiré, chaque élève disposera d’une heure de préparation, au cours de laquelle « ilpermis d’utiliser tous les outils, y compris l’IA générative », ce qui n’était pas le cas jusqu’à présent. Il devra ensuite faire sa présentation orale devant l’examinateur. Le Danemark, qui autorise l’usage encadré d’Internet pendant les examens depuis 2008, cherche à encourager, à travers un cadre strict, le développement numérique dans les apprentissages. Lire aussi | Article réservé à nos abonnés « Nous sommes beaucoup trop pressés de confier à l’IA la gestion du monde au lieu de mesurer ses limites » « Nous lançons ces expérimentations afin de trouver le bon équilibre », a dit le ministre de l’éducation, Mattias Tesfaye, cité dans un communiqué. « Lorsque les élèves évoluent dans des mondes à la fois analogiques et numériques, nous les préparons de la meilleure manière possible à la réalité après l’école », a-t-il estimé. Cette expérience, qui est ouverte aux lycées qui se porteront volontaires, n’est valable qu’en ce qui concerne la filière générale. Lire aussi | Article réservé à nos abonnés L’IA, mes étudiants et moi : « Le semestre passé constitue la pire expérience de ma vie d’enseignant » Le Monde avec AFP Réutiliser ce contenu #danemark #lia #autorisée #baccalauréat #partir
    Au Danemark, l’IA autorisée au baccalauréat à partir de 2026
    www.lemonde.fr
    Au Danemark, certains lycéens pourront utiliser l’intelligence artificielle (IA) à partir de 2026 pendant l’épreuve orale d’anglais du baccalauréat, a annoncé, vendredi 22 août, le ministère de l’éducation du pays scandinave. Lors de cet examen, les élèves pourront recourir à l’IA pendant la phase de préparation de l’oral : une fois le sujet tiré, chaque élève disposera d’une heure de préparation, au cours de laquelle « il [sera] permis d’utiliser tous les outils, y compris l’IA générative », ce qui n’était pas le cas jusqu’à présent. Il devra ensuite faire sa présentation orale devant l’examinateur. Le Danemark, qui autorise l’usage encadré d’Internet pendant les examens depuis 2008, cherche à encourager, à travers un cadre strict, le développement numérique dans les apprentissages. Lire aussi | Article réservé à nos abonnés « Nous sommes beaucoup trop pressés de confier à l’IA la gestion du monde au lieu de mesurer ses limites » « Nous lançons ces expérimentations afin de trouver le bon équilibre », a dit le ministre de l’éducation, Mattias Tesfaye, cité dans un communiqué. « Lorsque les élèves évoluent dans des mondes à la fois analogiques et numériques, nous les préparons de la meilleure manière possible à la réalité après l’école », a-t-il estimé. Cette expérience, qui est ouverte aux lycées qui se porteront volontaires, n’est valable qu’en ce qui concerne la filière générale. Lire aussi | Article réservé à nos abonnés L’IA, mes étudiants et moi : « Le semestre passé constitue la pire expérience de ma vie d’enseignant » Le Monde avec AFP Réutiliser ce contenu
    Like
    Love
    Wow
    Angry
    Sad
    468
    · 2 Commentaires ·0 Parts
  • Adji Bousso Dieng, chercheuse en IA : « L’indépendance technologique de l’Afrique est menacée »

    Adji Bousso Dieng au siège du Fonds monétaire international, à Washington le 13 avril 2023. BEHEEN PARVIN DABESTANI / WORLD BANK/ BEHEEN PARVIN DABEST Issue d’une famille modeste, Adji Bousso Dieng a grandi à Kaolack, au Sénégal, avant de partir étudier en France puis de s’installer aux Etats-Unis, où elle enseigne depuis 2021 les sciences et l’ingénierie à la prestigieuse université américaine de Princeton. Elle est la première professeure noire en informatique de cet établissement prestigieux. Panafricaniste revendiquée, la chercheuse en intelligence artificielle alerte sur la menace d’une « colonisation numérique » du continent. Votre parcours se déploie sur trois continents. Qu’est-ce qu’être africaine, pour vous, en 2025 ? C’est surtout être résilient. Etre née sur un continent qui affronte tant de chocs politiques, économiques et sociaux donne une grande force pour avancer. C’est ce qui m’a permis d’avoir confiance en moi dans un monde qui accorde peu de poids aux voix africaines. Vous avez grandi dans une famille nombreuse, sans votre père qui est mort dans votre prime enfance. Puis vous avez étudié en France avant de travailler aux Etats-Unis où vous avez été recrutée par Google. Comment expliquez-vous votre parcours ? Il vous reste 85.99% de cet article à lire. La suite est réservée aux abonnés.
    #adji #bousso #dieng #chercheuse #lindépendance
    Adji Bousso Dieng, chercheuse en IA : « L’indépendance technologique de l’Afrique est menacée »
    Adji Bousso Dieng au siège du Fonds monétaire international, à Washington le 13 avril 2023. BEHEEN PARVIN DABESTANI / WORLD BANK/ BEHEEN PARVIN DABEST Issue d’une famille modeste, Adji Bousso Dieng a grandi à Kaolack, au Sénégal, avant de partir étudier en France puis de s’installer aux Etats-Unis, où elle enseigne depuis 2021 les sciences et l’ingénierie à la prestigieuse université américaine de Princeton. Elle est la première professeure noire en informatique de cet établissement prestigieux. Panafricaniste revendiquée, la chercheuse en intelligence artificielle alerte sur la menace d’une « colonisation numérique » du continent. Votre parcours se déploie sur trois continents. Qu’est-ce qu’être africaine, pour vous, en 2025 ? C’est surtout être résilient. Etre née sur un continent qui affronte tant de chocs politiques, économiques et sociaux donne une grande force pour avancer. C’est ce qui m’a permis d’avoir confiance en moi dans un monde qui accorde peu de poids aux voix africaines. Vous avez grandi dans une famille nombreuse, sans votre père qui est mort dans votre prime enfance. Puis vous avez étudié en France avant de travailler aux Etats-Unis où vous avez été recrutée par Google. Comment expliquez-vous votre parcours ? Il vous reste 85.99% de cet article à lire. La suite est réservée aux abonnés. #adji #bousso #dieng #chercheuse #lindépendance
    Adji Bousso Dieng, chercheuse en IA : « L’indépendance technologique de l’Afrique est menacée »
    www.lemonde.fr
    Adji Bousso Dieng au siège du Fonds monétaire international, à Washington le 13 avril 2023. BEHEEN PARVIN DABESTANI / WORLD BANK/ BEHEEN PARVIN DABEST Issue d’une famille modeste, Adji Bousso Dieng a grandi à Kaolack, au Sénégal, avant de partir étudier en France puis de s’installer aux Etats-Unis, où elle enseigne depuis 2021 les sciences et l’ingénierie à la prestigieuse université américaine de Princeton. Elle est la première professeure noire en informatique de cet établissement prestigieux. Panafricaniste revendiquée, la chercheuse en intelligence artificielle alerte sur la menace d’une « colonisation numérique » du continent. Votre parcours se déploie sur trois continents. Qu’est-ce qu’être africaine, pour vous, en 2025 ? C’est surtout être résilient. Etre née sur un continent qui affronte tant de chocs politiques, économiques et sociaux donne une grande force pour avancer. C’est ce qui m’a permis d’avoir confiance en moi dans un monde qui accorde peu de poids aux voix africaines. Vous avez grandi dans une famille nombreuse, sans votre père qui est mort dans votre prime enfance. Puis vous avez étudié en France avant de travailler aux Etats-Unis où vous avez été recrutée par Google. Comment expliquez-vous votre parcours ? Il vous reste 85.99% de cet article à lire. La suite est réservée aux abonnés.
    2 Commentaires ·0 Parts
Plus de résultats
ollo https://www.ollo.ws