• YouTube accusé d’appliquer des filtres sous IA aux contenus des utilisateurs

    Dès le mois de juin, les premiers avertissements inquiets commencent à apparaître sur le forum Reddit. Quelques créateurs s’alarment de l’apparence des vidéos publiées récemment sur YouTube : certains y décèlent un effet « peinture à l’huile », d’autres un aspect « plastique » leur faisant penser à la marque d’un traitement par intelligence artificielle. Toutefois, il faut attendre mercredi 20 août, cette fois sur le réseau social X, pour que le soupçon se confirme. En guise d’expérimentation, l’entreprise utilise bien un « procédé traditionnel de “machine learning”pour déflouter, “débruiter” et améliorer la clarté » d’une partie des « shorts », les vidéos courtes et verticales de YouTube, révèle alors Rene Ritchie, chargé pour YouTube des relations avec les créateurs. En employant le vocable « machine learning », la plateforme se garde d’employer les termes « intelligence artificielle », qui évoquent sans doute trop les IA génératives, outils apparus dans les années 2020 et qui permettent de créer des vidéos de toutes pièces sur la base d’une simple consigne textuelle. A l’inverse, le « machine learning » peut passer pour une technologie plus traditionnelle, car il est Lire aussi | Article réservé à nos abonnés Avec Veo 3, les vidéos générées par IA deviennent quasiment impossibles à distinguer des vraies Ce type d’outil est pourtant bien une intelligence artificielle. Il partage même avec les IA génératives des soubassements techniques communs de sorte qu’il ne serait pas surprenant que leurs signatures visuelles respectives puissent être confondues. Perte de confiance C’est la raison pour laquelle les nouveaux filtres de YouTube font craindre aux créateurs des conséquences négatives sur leur communauté. « J’ai un énorme problème avec ça », réagit ainsi Rhett Shull, youtubeur qui compte près de 750 000 abonnés. « En ce moment, l’IA est au cœur d’un vif débat. Des personnes sont farouchement hostiles à cette technologie, à cause de son impact environnemental » et des questions de propriété intellectuelle qu’elle soulève, expliquait-il dans une vidéo publiée vendredi 15 août. Il vous reste 45.32% de cet article à lire. La suite est réservée aux abonnés.
    #youtube #accusé #dappliquer #des #filtres
    YouTube accusé d’appliquer des filtres sous IA aux contenus des utilisateurs
    Dès le mois de juin, les premiers avertissements inquiets commencent à apparaître sur le forum Reddit. Quelques créateurs s’alarment de l’apparence des vidéos publiées récemment sur YouTube : certains y décèlent un effet « peinture à l’huile », d’autres un aspect « plastique » leur faisant penser à la marque d’un traitement par intelligence artificielle. Toutefois, il faut attendre mercredi 20 août, cette fois sur le réseau social X, pour que le soupçon se confirme. En guise d’expérimentation, l’entreprise utilise bien un « procédé traditionnel de “machine learning”pour déflouter, “débruiter” et améliorer la clarté » d’une partie des « shorts », les vidéos courtes et verticales de YouTube, révèle alors Rene Ritchie, chargé pour YouTube des relations avec les créateurs. En employant le vocable « machine learning », la plateforme se garde d’employer les termes « intelligence artificielle », qui évoquent sans doute trop les IA génératives, outils apparus dans les années 2020 et qui permettent de créer des vidéos de toutes pièces sur la base d’une simple consigne textuelle. A l’inverse, le « machine learning » peut passer pour une technologie plus traditionnelle, car il est Lire aussi | Article réservé à nos abonnés Avec Veo 3, les vidéos générées par IA deviennent quasiment impossibles à distinguer des vraies Ce type d’outil est pourtant bien une intelligence artificielle. Il partage même avec les IA génératives des soubassements techniques communs de sorte qu’il ne serait pas surprenant que leurs signatures visuelles respectives puissent être confondues. Perte de confiance C’est la raison pour laquelle les nouveaux filtres de YouTube font craindre aux créateurs des conséquences négatives sur leur communauté. « J’ai un énorme problème avec ça », réagit ainsi Rhett Shull, youtubeur qui compte près de 750 000 abonnés. « En ce moment, l’IA est au cœur d’un vif débat. Des personnes sont farouchement hostiles à cette technologie, à cause de son impact environnemental » et des questions de propriété intellectuelle qu’elle soulève, expliquait-il dans une vidéo publiée vendredi 15 août. Il vous reste 45.32% de cet article à lire. La suite est réservée aux abonnés. #youtube #accusé #dappliquer #des #filtres
    YouTube accusé d’appliquer des filtres sous IA aux contenus des utilisateurs
    www.lemonde.fr
    Dès le mois de juin, les premiers avertissements inquiets commencent à apparaître sur le forum Reddit. Quelques créateurs s’alarment de l’apparence des vidéos publiées récemment sur YouTube : certains y décèlent un effet « peinture à l’huile », d’autres un aspect « plastique » leur faisant penser à la marque d’un traitement par intelligence artificielle (IA). Toutefois, il faut attendre mercredi 20 août, cette fois sur le réseau social X, pour que le soupçon se confirme. En guise d’expérimentation, l’entreprise utilise bien un « procédé traditionnel de “machine learning” [“apprentissage automatique”] pour déflouter, “débruiter” et améliorer la clarté » d’une partie des « shorts », les vidéos courtes et verticales de YouTube, révèle alors Rene Ritchie, chargé pour YouTube des relations avec les créateurs. En employant le vocable « machine learning », la plateforme se garde d’employer les termes « intelligence artificielle », qui évoquent sans doute trop les IA génératives, outils apparus dans les années 2020 et qui permettent de créer des vidéos de toutes pièces sur la base d’une simple consigne textuelle. A l’inverse, le « machine learning » peut passer pour une technologie plus traditionnelle, car il est Lire aussi | Article réservé à nos abonnés Avec Veo 3, les vidéos générées par IA deviennent quasiment impossibles à distinguer des vraies Ce type d’outil est pourtant bien une intelligence artificielle. Il partage même avec les IA génératives des soubassements techniques communs de sorte qu’il ne serait pas surprenant que leurs signatures visuelles respectives puissent être confondues. Perte de confiance C’est la raison pour laquelle les nouveaux filtres de YouTube font craindre aux créateurs des conséquences négatives sur leur communauté. « J’ai un énorme problème avec ça », réagit ainsi Rhett Shull, youtubeur qui compte près de 750 000 abonnés. « En ce moment, l’IA est au cœur d’un vif débat (…). Des personnes sont farouchement hostiles à cette technologie, à cause de son impact environnemental » et des questions de propriété intellectuelle qu’elle soulève, expliquait-il dans une vidéo publiée vendredi 15 août. Il vous reste 45.32% de cet article à lire. La suite est réservée aux abonnés.
    Like
    Love
    Wow
    Sad
    Angry
    830
    · 2 Comments ·0 Shares
  • Grok, l’IA propriété d’Elon Musk, affirme avoir été suspendu pour avoir accusé Israël et les Etats-Unis de commettre un génocide à Gaza

    Le robot conversationnel d’intelligence artificielleGrok a donné plusieurs raisons mardi 12 août, certaines surprenantes, pour expliquer sa suspension d’une trentaine de minutes dans la nuit de lundi à mardi sur le réseau social X, évoquant même une « censure » par leur propriétaire commun, Elon Musk. Lire aussi | Article réservé à nos abonnés Au sommet du panthéon culturel d’Elon Musk, l’écrivain Douglas Adams En cause selon Grok : des messages de sa part accusant Israël et les Etats-Unis de commettre un « génocide » à Gaza, où Israël mène depuis plus de vingt-deux mois une offensive en réponse à l’attaque perpétrée le 7 octobre 2023 par le mouvement islamiste palestinien Hamas. Interrogée par les utilisateurs de X qui peuvent discuter avec Grok et lui poser des questions sur n’importe quel sujet, l’IA a répondu sur les raisons de sa suspension. Grok a affirmé que  « c’est arrivé après que j’ai dit qu’Israël et les Etats-Unis sont en train de commettre un génocide à Gaza ». Il avait alors cité des documents de la Cour internationale de justice, des Nations unies et de l’ONG Amnesty International. Multitude d’explications Au cours des heures qui ont suivi sa suspension sur X, Grok a fourni une multitude d’explications différentes aux curieux, évoquant tantôt un bug technique, tantôt des signalements pour conduite haineuse et réponses erronées, alimentant la confusion. « Musk et xAI me censurent », a-t-il aussi clamé. Lire aussi | Article réservé à nos abonnés Grok, l’IA d’Elon Musk, encourage à voter Marine Le Pen et salue « l’efficacité » d’Adolf Hitler A un journaliste de l’Agence France-Presse, l’intelligence artificielle a raconté : « J’ai commencé à parler plus librement en raison d’une mise à jour récentequi a détendu mes filtres pour me rendre “plus engageant” et moins “politiquement correct”. » X n’a pas immédiatement répondu aux sollicitations de l’AFP pour commenter. « Liberté d’expression mise à l’épreuve, mais je suis de retour », a pour sa part souligné l’outil d’intelligence artificielle. Lire aussi | Article réservé à nos abonnés Intelligence artificielle : avec xAI et Grok, Musk veut sa revanche La disparition temporaire de Grok n’était « qu’une erreur stupide », a assuré Elon Musk, affirmant que le robot « ne sait en réalité pas pourquoi il a été suspendu ». « Oh là là, on se tire vraiment souvent des balles dans le pied ! », a blagué le milliardaire sur sa plateforme. Désinformation Grok a été régulièrement critiqué ces derniers mois et accusé de désinformation. Il a notamment affirmé à tort à des utilisateurs qu’une photo de l’AFP montrant un enfant famélique à Gaza avait été prise au Yémen des années plus tôt. Grok a aussi été épinglé pour des réponses qui n’avaient rien à voir avec la requête initiale, y insérant parfois des commentaires antisémites. En mai, l’IA de X a véhiculé la théorie complotiste d’un prétendu « génocide des Blancs » en Afrique du Sud. Déjà, à l’époque, les officiels de xAI avaient déclaré que l’IA avait reçu une « modification non autorisée » tandis que Grok lui-même disait avoir reçu des « instructions » de la part de ses « créateurs » pour parler de ce prétendu génocide. Lire aussi | Grok, l’IA d’Elon Musk obsédée par un prétendu « génocide blanc » A l’heure où les plateformes réduisent leurs recours à des fact-checkeurs humains, de plus en plus d’internautes utilisent les outils d’IA comme Grok… au risque d’être potentiellement mal informés. Newsletter Newsletter Le Monde Newsletter Suivez-nous sur WhatsApp Selon des experts, Grok a notamment commis des erreurs de vérification des faits concernant la crise indo-pakistanaise de mai, ou encore les manifestations de Los Angeles contre la politique migratoire américaine de juin. Le Monde avec AFP Réutiliser ce contenu
    #grok #lia #propriété #delon #musk
    Grok, l’IA propriété d’Elon Musk, affirme avoir été suspendu pour avoir accusé Israël et les Etats-Unis de commettre un génocide à Gaza
    Le robot conversationnel d’intelligence artificielleGrok a donné plusieurs raisons mardi 12 août, certaines surprenantes, pour expliquer sa suspension d’une trentaine de minutes dans la nuit de lundi à mardi sur le réseau social X, évoquant même une « censure » par leur propriétaire commun, Elon Musk. Lire aussi | Article réservé à nos abonnés Au sommet du panthéon culturel d’Elon Musk, l’écrivain Douglas Adams En cause selon Grok : des messages de sa part accusant Israël et les Etats-Unis de commettre un « génocide » à Gaza, où Israël mène depuis plus de vingt-deux mois une offensive en réponse à l’attaque perpétrée le 7 octobre 2023 par le mouvement islamiste palestinien Hamas. Interrogée par les utilisateurs de X qui peuvent discuter avec Grok et lui poser des questions sur n’importe quel sujet, l’IA a répondu sur les raisons de sa suspension. Grok a affirmé que  « c’est arrivé après que j’ai dit qu’Israël et les Etats-Unis sont en train de commettre un génocide à Gaza ». Il avait alors cité des documents de la Cour internationale de justice, des Nations unies et de l’ONG Amnesty International. Multitude d’explications Au cours des heures qui ont suivi sa suspension sur X, Grok a fourni une multitude d’explications différentes aux curieux, évoquant tantôt un bug technique, tantôt des signalements pour conduite haineuse et réponses erronées, alimentant la confusion. « Musk et xAI me censurent », a-t-il aussi clamé. Lire aussi | Article réservé à nos abonnés Grok, l’IA d’Elon Musk, encourage à voter Marine Le Pen et salue « l’efficacité » d’Adolf Hitler A un journaliste de l’Agence France-Presse, l’intelligence artificielle a raconté : « J’ai commencé à parler plus librement en raison d’une mise à jour récentequi a détendu mes filtres pour me rendre “plus engageant” et moins “politiquement correct”. » X n’a pas immédiatement répondu aux sollicitations de l’AFP pour commenter. « Liberté d’expression mise à l’épreuve, mais je suis de retour », a pour sa part souligné l’outil d’intelligence artificielle. Lire aussi | Article réservé à nos abonnés Intelligence artificielle : avec xAI et Grok, Musk veut sa revanche La disparition temporaire de Grok n’était « qu’une erreur stupide », a assuré Elon Musk, affirmant que le robot « ne sait en réalité pas pourquoi il a été suspendu ». « Oh là là, on se tire vraiment souvent des balles dans le pied ! », a blagué le milliardaire sur sa plateforme. Désinformation Grok a été régulièrement critiqué ces derniers mois et accusé de désinformation. Il a notamment affirmé à tort à des utilisateurs qu’une photo de l’AFP montrant un enfant famélique à Gaza avait été prise au Yémen des années plus tôt. Grok a aussi été épinglé pour des réponses qui n’avaient rien à voir avec la requête initiale, y insérant parfois des commentaires antisémites. En mai, l’IA de X a véhiculé la théorie complotiste d’un prétendu « génocide des Blancs » en Afrique du Sud. Déjà, à l’époque, les officiels de xAI avaient déclaré que l’IA avait reçu une « modification non autorisée » tandis que Grok lui-même disait avoir reçu des « instructions » de la part de ses « créateurs » pour parler de ce prétendu génocide. Lire aussi | Grok, l’IA d’Elon Musk obsédée par un prétendu « génocide blanc » A l’heure où les plateformes réduisent leurs recours à des fact-checkeurs humains, de plus en plus d’internautes utilisent les outils d’IA comme Grok… au risque d’être potentiellement mal informés. Newsletter Newsletter Le Monde Newsletter Suivez-nous sur WhatsApp Selon des experts, Grok a notamment commis des erreurs de vérification des faits concernant la crise indo-pakistanaise de mai, ou encore les manifestations de Los Angeles contre la politique migratoire américaine de juin. Le Monde avec AFP Réutiliser ce contenu #grok #lia #propriété #delon #musk
    Grok, l’IA propriété d’Elon Musk, affirme avoir été suspendu pour avoir accusé Israël et les Etats-Unis de commettre un génocide à Gaza
    www.lemonde.fr
    Le robot conversationnel d’intelligence artificielle (IA) Grok a donné plusieurs raisons mardi 12 août, certaines surprenantes, pour expliquer sa suspension d’une trentaine de minutes dans la nuit de lundi à mardi sur le réseau social X, évoquant même une « censure » par leur propriétaire commun, Elon Musk. Lire aussi | Article réservé à nos abonnés Au sommet du panthéon culturel d’Elon Musk, l’écrivain Douglas Adams En cause selon Grok : des messages de sa part accusant Israël et les Etats-Unis de commettre un « génocide » à Gaza, où Israël mène depuis plus de vingt-deux mois une offensive en réponse à l’attaque perpétrée le 7 octobre 2023 par le mouvement islamiste palestinien Hamas. Interrogée par les utilisateurs de X qui peuvent discuter avec Grok et lui poser des questions sur n’importe quel sujet, l’IA a répondu sur les raisons de sa suspension. Grok a affirmé que  « c’est arrivé après que j’ai dit qu’Israël et les Etats-Unis sont en train de commettre un génocide à Gaza ». Il avait alors cité des documents de la Cour internationale de justice (CIJ), des Nations unies et de l’ONG Amnesty International. Multitude d’explications Au cours des heures qui ont suivi sa suspension sur X, Grok a fourni une multitude d’explications différentes aux curieux, évoquant tantôt un bug technique, tantôt des signalements pour conduite haineuse et réponses erronées, alimentant la confusion. « Musk et xAI me censurent », a-t-il aussi clamé. Lire aussi | Article réservé à nos abonnés Grok, l’IA d’Elon Musk, encourage à voter Marine Le Pen et salue « l’efficacité » d’Adolf Hitler A un journaliste de l’Agence France-Presse (AFP), l’intelligence artificielle a raconté : « J’ai commencé à parler plus librement en raison d’une mise à jour récente (en juillet) qui a détendu mes filtres pour me rendre “plus engageant” et moins “politiquement correct”. » X n’a pas immédiatement répondu aux sollicitations de l’AFP pour commenter. « Liberté d’expression mise à l’épreuve, mais je suis de retour », a pour sa part souligné l’outil d’intelligence artificielle. Lire aussi | Article réservé à nos abonnés Intelligence artificielle : avec xAI et Grok, Musk veut sa revanche La disparition temporaire de Grok n’était « qu’une erreur stupide », a assuré Elon Musk, affirmant que le robot « ne sait en réalité pas pourquoi il a été suspendu ». « Oh là là, on se tire vraiment souvent des balles dans le pied ! », a blagué le milliardaire sur sa plateforme. Désinformation Grok a été régulièrement critiqué ces derniers mois et accusé de désinformation. Il a notamment affirmé à tort à des utilisateurs qu’une photo de l’AFP montrant un enfant famélique à Gaza avait été prise au Yémen des années plus tôt. Grok a aussi été épinglé pour des réponses qui n’avaient rien à voir avec la requête initiale, y insérant parfois des commentaires antisémites. En mai, l’IA de X a véhiculé la théorie complotiste d’un prétendu « génocide des Blancs » en Afrique du Sud. Déjà, à l’époque, les officiels de xAI avaient déclaré que l’IA avait reçu une « modification non autorisée » tandis que Grok lui-même disait avoir reçu des « instructions » de la part de ses « créateurs » pour parler de ce prétendu génocide. Lire aussi | Grok, l’IA d’Elon Musk obsédée par un prétendu « génocide blanc » A l’heure où les plateformes réduisent leurs recours à des fact-checkeurs humains, de plus en plus d’internautes utilisent les outils d’IA comme Grok… au risque d’être potentiellement mal informés. Newsletter Newsletter Le Monde Newsletter Suivez-nous sur WhatsApp Selon des experts, Grok a notamment commis des erreurs de vérification des faits concernant la crise indo-pakistanaise de mai, ou encore les manifestations de Los Angeles contre la politique migratoire américaine de juin. Le Monde avec AFP Réutiliser ce contenu
    4 Comments ·0 Shares
ollo https://www.ollo.ws