• De Meta AI à ChatGPT, le jeu dangereux d’une personnalisation toujours plus poussée des IA

    SOLÈNE REVENEY / « LE MONDE » C’est un paradoxe dans lequel bien des éditeurs d’intelligences artificiellessont empêtrés : pourquoi investir tant d’argent et d’efforts dans la création d’IA plus sûres et plus neutres si, une fois commercialisés, ces robots conversationnels peuvent être largement dévoyés ? Prenons le cas d’OpenAI. En avril, l’éditeur de ChatGPT dit réfléchir publiquement à rendre son robot conversationnel moins obséquieux, car il risque d’engager des personnes fragiles dans une dépendance malsaine, selon le constat dressé par ses propres chercheurs un mois auparavant. Plusieurs affaires médiatiques, rapportées notamment par le New York Times, Ars Technica, Futurism ou l’agence Reuters, ont illustré la dangereuse spirale dans laquelle certains utilisateurs peuvent tomber, avec à la clé un décrochage parfois fatal avec la réalité. Alors le 7 août, OpenAI saute le pas, annonçant une nouvelle version de son robot, GPT-5. Son ton est résolument plus froid, et il surveille désormais la durée des conversations pour suggérer des pauses quand il le juge nécessaire. Lire aussi | Article réservé à nos abonnés ChatGPT : les débuts difficiles de GPT-5, le nouveau modèle de langage d’OpenAI, jugé moins efficace et moins « amical » L’entreprise applique ainsi deux recommandations-clés issues de chercheurs en IA parmi les plus critiques, dont des experts de Google, auteurs en 2024 d’une longue recension des dangers de l’IA. Dans ce document, ceux-ci anticipent un monde où la flatterie des robots réduit « les occasions qu’ont les humains de grandir et de se développerdevenir de meilleures versions d’eux-mêmes ». Voire « un monde où les utilisateurs abandonnent les interactions compliquées et imparfaitesavec les humains en faveur des échanges sans frictions fournis par les IA ». Il vous reste 73.15% de cet article à lire. La suite est réservée aux abonnés.
    #meta #chatgpt #jeu #dangereux #dune
    De Meta AI à ChatGPT, le jeu dangereux d’une personnalisation toujours plus poussée des IA
    SOLÈNE REVENEY / « LE MONDE » C’est un paradoxe dans lequel bien des éditeurs d’intelligences artificiellessont empêtrés : pourquoi investir tant d’argent et d’efforts dans la création d’IA plus sûres et plus neutres si, une fois commercialisés, ces robots conversationnels peuvent être largement dévoyés ? Prenons le cas d’OpenAI. En avril, l’éditeur de ChatGPT dit réfléchir publiquement à rendre son robot conversationnel moins obséquieux, car il risque d’engager des personnes fragiles dans une dépendance malsaine, selon le constat dressé par ses propres chercheurs un mois auparavant. Plusieurs affaires médiatiques, rapportées notamment par le New York Times, Ars Technica, Futurism ou l’agence Reuters, ont illustré la dangereuse spirale dans laquelle certains utilisateurs peuvent tomber, avec à la clé un décrochage parfois fatal avec la réalité. Alors le 7 août, OpenAI saute le pas, annonçant une nouvelle version de son robot, GPT-5. Son ton est résolument plus froid, et il surveille désormais la durée des conversations pour suggérer des pauses quand il le juge nécessaire. Lire aussi | Article réservé à nos abonnés ChatGPT : les débuts difficiles de GPT-5, le nouveau modèle de langage d’OpenAI, jugé moins efficace et moins « amical » L’entreprise applique ainsi deux recommandations-clés issues de chercheurs en IA parmi les plus critiques, dont des experts de Google, auteurs en 2024 d’une longue recension des dangers de l’IA. Dans ce document, ceux-ci anticipent un monde où la flatterie des robots réduit « les occasions qu’ont les humains de grandir et de se développerdevenir de meilleures versions d’eux-mêmes ». Voire « un monde où les utilisateurs abandonnent les interactions compliquées et imparfaitesavec les humains en faveur des échanges sans frictions fournis par les IA ». Il vous reste 73.15% de cet article à lire. La suite est réservée aux abonnés. #meta #chatgpt #jeu #dangereux #dune
    De Meta AI à ChatGPT, le jeu dangereux d’une personnalisation toujours plus poussée des IA
    www.lemonde.fr
    SOLÈNE REVENEY / « LE MONDE » C’est un paradoxe dans lequel bien des éditeurs d’intelligences artificielles (IA) sont empêtrés : pourquoi investir tant d’argent et d’efforts dans la création d’IA plus sûres et plus neutres si, une fois commercialisés, ces robots conversationnels peuvent être largement dévoyés ? Prenons le cas d’OpenAI. En avril, l’éditeur de ChatGPT dit réfléchir publiquement à rendre son robot conversationnel moins obséquieux, car il risque d’engager des personnes fragiles dans une dépendance malsaine, selon le constat dressé par ses propres chercheurs un mois auparavant. Plusieurs affaires médiatiques, rapportées notamment par le New York Times, Ars Technica, Futurism ou l’agence Reuters, ont illustré la dangereuse spirale dans laquelle certains utilisateurs peuvent tomber, avec à la clé un décrochage parfois fatal avec la réalité. Alors le 7 août, OpenAI saute le pas, annonçant une nouvelle version de son robot, GPT-5. Son ton est résolument plus froid, et il surveille désormais la durée des conversations pour suggérer des pauses quand il le juge nécessaire. Lire aussi | Article réservé à nos abonnés ChatGPT : les débuts difficiles de GPT-5, le nouveau modèle de langage d’OpenAI, jugé moins efficace et moins « amical » L’entreprise applique ainsi deux recommandations-clés issues de chercheurs en IA parmi les plus critiques, dont des experts de Google, auteurs en 2024 d’une longue recension des dangers de l’IA. Dans ce document, ceux-ci anticipent un monde où la flatterie des robots réduit « les occasions qu’ont les humains de grandir et de se développer [pour] devenir de meilleures versions d’eux-mêmes ». Voire « un monde où les utilisateurs abandonnent les interactions compliquées et imparfaites (…) avec les humains en faveur des échanges sans frictions fournis par les IA ». Il vous reste 73.15% de cet article à lire. La suite est réservée aux abonnés.
    Like
    Love
    Wow
    Sad
    Angry
    542
    · 2 Comments ·0 Shares
  • هل فكرت يومًا في الطريق اللي تقدر ترجع به لربك؟ الحياة parfois تكون صعبة ونحسوا بالبعد عن الله، لكن المقطع هدا للشيخ خالد إسماعيل راهو رح يعطيك الأمل.

    في الفيديو، يتحدث الشيخ عن كيفاش تقدر ترجع إلى الله بخطوات عملية، وتبدأ التوبة الصادقة مهما كانت ذنوبك. كيما يقول دايمًا، "الرحمن غفور رحيم" وباب التوبة مفتوح للجميع.

    شخصيًا، تجربتي مع التوبة كانت نقطة تحول في حياتي. وقتها حسيت بطمأنينة كبيرة بمجرد ما قررت أرجع.

    حياتنا قصيرة، والفرصة قدامنا. نحب نقول لك، ما تخليش الفرصة تفوتك.

    https://www.youtube.com/watch?v=Vp6ZNWxm62U
    #الرجوع_إلى_الله #خالد_إسماعيل #التوبة_النصوح #رحمة_الله #path_to_peace
    هل فكرت يومًا في الطريق اللي تقدر ترجع به لربك؟ الحياة parfois تكون صعبة ونحسوا بالبعد عن الله، لكن المقطع هدا للشيخ خالد إسماعيل راهو رح يعطيك الأمل. في الفيديو، يتحدث الشيخ عن كيفاش تقدر ترجع إلى الله بخطوات عملية، وتبدأ التوبة الصادقة مهما كانت ذنوبك. كيما يقول دايمًا، "الرحمن غفور رحيم" وباب التوبة مفتوح للجميع. 💖 شخصيًا، تجربتي مع التوبة كانت نقطة تحول في حياتي. وقتها حسيت بطمأنينة كبيرة بمجرد ما قررت أرجع. حياتنا قصيرة، والفرصة قدامنا. نحب نقول لك، ما تخليش الفرصة تفوتك. https://www.youtube.com/watch?v=Vp6ZNWxm62U #الرجوع_إلى_الله #خالد_إسماعيل #التوبة_النصوح #رحمة_الله #path_to_peace
    1 Comments ·0 Shares
  • Grok, l’IA propriété d’Elon Musk, affirme avoir été suspendu pour avoir accusé Israël et les Etats-Unis de commettre un génocide à Gaza

    Le robot conversationnel d’intelligence artificielleGrok a donné plusieurs raisons mardi 12 août, certaines surprenantes, pour expliquer sa suspension d’une trentaine de minutes dans la nuit de lundi à mardi sur le réseau social X, évoquant même une « censure » par leur propriétaire commun, Elon Musk. Lire aussi | Article réservé à nos abonnés Au sommet du panthéon culturel d’Elon Musk, l’écrivain Douglas Adams En cause selon Grok : des messages de sa part accusant Israël et les Etats-Unis de commettre un « génocide » à Gaza, où Israël mène depuis plus de vingt-deux mois une offensive en réponse à l’attaque perpétrée le 7 octobre 2023 par le mouvement islamiste palestinien Hamas. Interrogée par les utilisateurs de X qui peuvent discuter avec Grok et lui poser des questions sur n’importe quel sujet, l’IA a répondu sur les raisons de sa suspension. Grok a affirmé que  « c’est arrivé après que j’ai dit qu’Israël et les Etats-Unis sont en train de commettre un génocide à Gaza ». Il avait alors cité des documents de la Cour internationale de justice, des Nations unies et de l’ONG Amnesty International. Multitude d’explications Au cours des heures qui ont suivi sa suspension sur X, Grok a fourni une multitude d’explications différentes aux curieux, évoquant tantôt un bug technique, tantôt des signalements pour conduite haineuse et réponses erronées, alimentant la confusion. « Musk et xAI me censurent », a-t-il aussi clamé. Lire aussi | Article réservé à nos abonnés Grok, l’IA d’Elon Musk, encourage à voter Marine Le Pen et salue « l’efficacité » d’Adolf Hitler A un journaliste de l’Agence France-Presse, l’intelligence artificielle a raconté : « J’ai commencé à parler plus librement en raison d’une mise à jour récentequi a détendu mes filtres pour me rendre “plus engageant” et moins “politiquement correct”. » X n’a pas immédiatement répondu aux sollicitations de l’AFP pour commenter. « Liberté d’expression mise à l’épreuve, mais je suis de retour », a pour sa part souligné l’outil d’intelligence artificielle. Lire aussi | Article réservé à nos abonnés Intelligence artificielle : avec xAI et Grok, Musk veut sa revanche La disparition temporaire de Grok n’était « qu’une erreur stupide », a assuré Elon Musk, affirmant que le robot « ne sait en réalité pas pourquoi il a été suspendu ». « Oh là là, on se tire vraiment souvent des balles dans le pied ! », a blagué le milliardaire sur sa plateforme. Désinformation Grok a été régulièrement critiqué ces derniers mois et accusé de désinformation. Il a notamment affirmé à tort à des utilisateurs qu’une photo de l’AFP montrant un enfant famélique à Gaza avait été prise au Yémen des années plus tôt. Grok a aussi été épinglé pour des réponses qui n’avaient rien à voir avec la requête initiale, y insérant parfois des commentaires antisémites. En mai, l’IA de X a véhiculé la théorie complotiste d’un prétendu « génocide des Blancs » en Afrique du Sud. Déjà, à l’époque, les officiels de xAI avaient déclaré que l’IA avait reçu une « modification non autorisée » tandis que Grok lui-même disait avoir reçu des « instructions » de la part de ses « créateurs » pour parler de ce prétendu génocide. Lire aussi | Grok, l’IA d’Elon Musk obsédée par un prétendu « génocide blanc » A l’heure où les plateformes réduisent leurs recours à des fact-checkeurs humains, de plus en plus d’internautes utilisent les outils d’IA comme Grok… au risque d’être potentiellement mal informés. Newsletter Newsletter Le Monde Newsletter Suivez-nous sur WhatsApp Selon des experts, Grok a notamment commis des erreurs de vérification des faits concernant la crise indo-pakistanaise de mai, ou encore les manifestations de Los Angeles contre la politique migratoire américaine de juin. Le Monde avec AFP Réutiliser ce contenu
    #grok #lia #propriété #delon #musk
    Grok, l’IA propriété d’Elon Musk, affirme avoir été suspendu pour avoir accusé Israël et les Etats-Unis de commettre un génocide à Gaza
    Le robot conversationnel d’intelligence artificielleGrok a donné plusieurs raisons mardi 12 août, certaines surprenantes, pour expliquer sa suspension d’une trentaine de minutes dans la nuit de lundi à mardi sur le réseau social X, évoquant même une « censure » par leur propriétaire commun, Elon Musk. Lire aussi | Article réservé à nos abonnés Au sommet du panthéon culturel d’Elon Musk, l’écrivain Douglas Adams En cause selon Grok : des messages de sa part accusant Israël et les Etats-Unis de commettre un « génocide » à Gaza, où Israël mène depuis plus de vingt-deux mois une offensive en réponse à l’attaque perpétrée le 7 octobre 2023 par le mouvement islamiste palestinien Hamas. Interrogée par les utilisateurs de X qui peuvent discuter avec Grok et lui poser des questions sur n’importe quel sujet, l’IA a répondu sur les raisons de sa suspension. Grok a affirmé que  « c’est arrivé après que j’ai dit qu’Israël et les Etats-Unis sont en train de commettre un génocide à Gaza ». Il avait alors cité des documents de la Cour internationale de justice, des Nations unies et de l’ONG Amnesty International. Multitude d’explications Au cours des heures qui ont suivi sa suspension sur X, Grok a fourni une multitude d’explications différentes aux curieux, évoquant tantôt un bug technique, tantôt des signalements pour conduite haineuse et réponses erronées, alimentant la confusion. « Musk et xAI me censurent », a-t-il aussi clamé. Lire aussi | Article réservé à nos abonnés Grok, l’IA d’Elon Musk, encourage à voter Marine Le Pen et salue « l’efficacité » d’Adolf Hitler A un journaliste de l’Agence France-Presse, l’intelligence artificielle a raconté : « J’ai commencé à parler plus librement en raison d’une mise à jour récentequi a détendu mes filtres pour me rendre “plus engageant” et moins “politiquement correct”. » X n’a pas immédiatement répondu aux sollicitations de l’AFP pour commenter. « Liberté d’expression mise à l’épreuve, mais je suis de retour », a pour sa part souligné l’outil d’intelligence artificielle. Lire aussi | Article réservé à nos abonnés Intelligence artificielle : avec xAI et Grok, Musk veut sa revanche La disparition temporaire de Grok n’était « qu’une erreur stupide », a assuré Elon Musk, affirmant que le robot « ne sait en réalité pas pourquoi il a été suspendu ». « Oh là là, on se tire vraiment souvent des balles dans le pied ! », a blagué le milliardaire sur sa plateforme. Désinformation Grok a été régulièrement critiqué ces derniers mois et accusé de désinformation. Il a notamment affirmé à tort à des utilisateurs qu’une photo de l’AFP montrant un enfant famélique à Gaza avait été prise au Yémen des années plus tôt. Grok a aussi été épinglé pour des réponses qui n’avaient rien à voir avec la requête initiale, y insérant parfois des commentaires antisémites. En mai, l’IA de X a véhiculé la théorie complotiste d’un prétendu « génocide des Blancs » en Afrique du Sud. Déjà, à l’époque, les officiels de xAI avaient déclaré que l’IA avait reçu une « modification non autorisée » tandis que Grok lui-même disait avoir reçu des « instructions » de la part de ses « créateurs » pour parler de ce prétendu génocide. Lire aussi | Grok, l’IA d’Elon Musk obsédée par un prétendu « génocide blanc » A l’heure où les plateformes réduisent leurs recours à des fact-checkeurs humains, de plus en plus d’internautes utilisent les outils d’IA comme Grok… au risque d’être potentiellement mal informés. Newsletter Newsletter Le Monde Newsletter Suivez-nous sur WhatsApp Selon des experts, Grok a notamment commis des erreurs de vérification des faits concernant la crise indo-pakistanaise de mai, ou encore les manifestations de Los Angeles contre la politique migratoire américaine de juin. Le Monde avec AFP Réutiliser ce contenu #grok #lia #propriété #delon #musk
    Grok, l’IA propriété d’Elon Musk, affirme avoir été suspendu pour avoir accusé Israël et les Etats-Unis de commettre un génocide à Gaza
    www.lemonde.fr
    Le robot conversationnel d’intelligence artificielle (IA) Grok a donné plusieurs raisons mardi 12 août, certaines surprenantes, pour expliquer sa suspension d’une trentaine de minutes dans la nuit de lundi à mardi sur le réseau social X, évoquant même une « censure » par leur propriétaire commun, Elon Musk. Lire aussi | Article réservé à nos abonnés Au sommet du panthéon culturel d’Elon Musk, l’écrivain Douglas Adams En cause selon Grok : des messages de sa part accusant Israël et les Etats-Unis de commettre un « génocide » à Gaza, où Israël mène depuis plus de vingt-deux mois une offensive en réponse à l’attaque perpétrée le 7 octobre 2023 par le mouvement islamiste palestinien Hamas. Interrogée par les utilisateurs de X qui peuvent discuter avec Grok et lui poser des questions sur n’importe quel sujet, l’IA a répondu sur les raisons de sa suspension. Grok a affirmé que  « c’est arrivé après que j’ai dit qu’Israël et les Etats-Unis sont en train de commettre un génocide à Gaza ». Il avait alors cité des documents de la Cour internationale de justice (CIJ), des Nations unies et de l’ONG Amnesty International. Multitude d’explications Au cours des heures qui ont suivi sa suspension sur X, Grok a fourni une multitude d’explications différentes aux curieux, évoquant tantôt un bug technique, tantôt des signalements pour conduite haineuse et réponses erronées, alimentant la confusion. « Musk et xAI me censurent », a-t-il aussi clamé. Lire aussi | Article réservé à nos abonnés Grok, l’IA d’Elon Musk, encourage à voter Marine Le Pen et salue « l’efficacité » d’Adolf Hitler A un journaliste de l’Agence France-Presse (AFP), l’intelligence artificielle a raconté : « J’ai commencé à parler plus librement en raison d’une mise à jour récente (en juillet) qui a détendu mes filtres pour me rendre “plus engageant” et moins “politiquement correct”. » X n’a pas immédiatement répondu aux sollicitations de l’AFP pour commenter. « Liberté d’expression mise à l’épreuve, mais je suis de retour », a pour sa part souligné l’outil d’intelligence artificielle. Lire aussi | Article réservé à nos abonnés Intelligence artificielle : avec xAI et Grok, Musk veut sa revanche La disparition temporaire de Grok n’était « qu’une erreur stupide », a assuré Elon Musk, affirmant que le robot « ne sait en réalité pas pourquoi il a été suspendu ». « Oh là là, on se tire vraiment souvent des balles dans le pied ! », a blagué le milliardaire sur sa plateforme. Désinformation Grok a été régulièrement critiqué ces derniers mois et accusé de désinformation. Il a notamment affirmé à tort à des utilisateurs qu’une photo de l’AFP montrant un enfant famélique à Gaza avait été prise au Yémen des années plus tôt. Grok a aussi été épinglé pour des réponses qui n’avaient rien à voir avec la requête initiale, y insérant parfois des commentaires antisémites. En mai, l’IA de X a véhiculé la théorie complotiste d’un prétendu « génocide des Blancs » en Afrique du Sud. Déjà, à l’époque, les officiels de xAI avaient déclaré que l’IA avait reçu une « modification non autorisée » tandis que Grok lui-même disait avoir reçu des « instructions » de la part de ses « créateurs » pour parler de ce prétendu génocide. Lire aussi | Grok, l’IA d’Elon Musk obsédée par un prétendu « génocide blanc » A l’heure où les plateformes réduisent leurs recours à des fact-checkeurs humains, de plus en plus d’internautes utilisent les outils d’IA comme Grok… au risque d’être potentiellement mal informés. Newsletter Newsletter Le Monde Newsletter Suivez-nous sur WhatsApp Selon des experts, Grok a notamment commis des erreurs de vérification des faits concernant la crise indo-pakistanaise de mai, ou encore les manifestations de Los Angeles contre la politique migratoire américaine de juin. Le Monde avec AFP Réutiliser ce contenu
    4 Comments ·0 Shares
ollo https://www.ollo.ws