• De Meta AI à ChatGPT, le jeu dangereux d’une personnalisation toujours plus poussée des IA

    SOLÈNE REVENEY / « LE MONDE » C’est un paradoxe dans lequel bien des éditeurs d’intelligences artificiellessont empêtrés : pourquoi investir tant d’argent et d’efforts dans la création d’IA plus sûres et plus neutres si, une fois commercialisés, ces robots conversationnels peuvent être largement dévoyés ? Prenons le cas d’OpenAI. En avril, l’éditeur de ChatGPT dit réfléchir publiquement à rendre son robot conversationnel moins obséquieux, car il risque d’engager des personnes fragiles dans une dépendance malsaine, selon le constat dressé par ses propres chercheurs un mois auparavant. Plusieurs affaires médiatiques, rapportées notamment par le New York Times, Ars Technica, Futurism ou l’agence Reuters, ont illustré la dangereuse spirale dans laquelle certains utilisateurs peuvent tomber, avec à la clé un décrochage parfois fatal avec la réalité. Alors le 7 août, OpenAI saute le pas, annonçant une nouvelle version de son robot, GPT-5. Son ton est résolument plus froid, et il surveille désormais la durée des conversations pour suggérer des pauses quand il le juge nécessaire. Lire aussi | Article réservé à nos abonnés ChatGPT : les débuts difficiles de GPT-5, le nouveau modèle de langage d’OpenAI, jugé moins efficace et moins « amical » L’entreprise applique ainsi deux recommandations-clés issues de chercheurs en IA parmi les plus critiques, dont des experts de Google, auteurs en 2024 d’une longue recension des dangers de l’IA. Dans ce document, ceux-ci anticipent un monde où la flatterie des robots réduit « les occasions qu’ont les humains de grandir et de se développerdevenir de meilleures versions d’eux-mêmes ». Voire « un monde où les utilisateurs abandonnent les interactions compliquées et imparfaitesavec les humains en faveur des échanges sans frictions fournis par les IA ». Il vous reste 73.15% de cet article à lire. La suite est réservée aux abonnés.
    #meta #chatgpt #jeu #dangereux #dune
    De Meta AI à ChatGPT, le jeu dangereux d’une personnalisation toujours plus poussée des IA
    SOLÈNE REVENEY / « LE MONDE » C’est un paradoxe dans lequel bien des éditeurs d’intelligences artificiellessont empêtrés : pourquoi investir tant d’argent et d’efforts dans la création d’IA plus sûres et plus neutres si, une fois commercialisés, ces robots conversationnels peuvent être largement dévoyés ? Prenons le cas d’OpenAI. En avril, l’éditeur de ChatGPT dit réfléchir publiquement à rendre son robot conversationnel moins obséquieux, car il risque d’engager des personnes fragiles dans une dépendance malsaine, selon le constat dressé par ses propres chercheurs un mois auparavant. Plusieurs affaires médiatiques, rapportées notamment par le New York Times, Ars Technica, Futurism ou l’agence Reuters, ont illustré la dangereuse spirale dans laquelle certains utilisateurs peuvent tomber, avec à la clé un décrochage parfois fatal avec la réalité. Alors le 7 août, OpenAI saute le pas, annonçant une nouvelle version de son robot, GPT-5. Son ton est résolument plus froid, et il surveille désormais la durée des conversations pour suggérer des pauses quand il le juge nécessaire. Lire aussi | Article réservé à nos abonnés ChatGPT : les débuts difficiles de GPT-5, le nouveau modèle de langage d’OpenAI, jugé moins efficace et moins « amical » L’entreprise applique ainsi deux recommandations-clés issues de chercheurs en IA parmi les plus critiques, dont des experts de Google, auteurs en 2024 d’une longue recension des dangers de l’IA. Dans ce document, ceux-ci anticipent un monde où la flatterie des robots réduit « les occasions qu’ont les humains de grandir et de se développerdevenir de meilleures versions d’eux-mêmes ». Voire « un monde où les utilisateurs abandonnent les interactions compliquées et imparfaitesavec les humains en faveur des échanges sans frictions fournis par les IA ». Il vous reste 73.15% de cet article à lire. La suite est réservée aux abonnés. #meta #chatgpt #jeu #dangereux #dune
    De Meta AI à ChatGPT, le jeu dangereux d’une personnalisation toujours plus poussée des IA
    www.lemonde.fr
    SOLÈNE REVENEY / « LE MONDE » C’est un paradoxe dans lequel bien des éditeurs d’intelligences artificielles (IA) sont empêtrés : pourquoi investir tant d’argent et d’efforts dans la création d’IA plus sûres et plus neutres si, une fois commercialisés, ces robots conversationnels peuvent être largement dévoyés ? Prenons le cas d’OpenAI. En avril, l’éditeur de ChatGPT dit réfléchir publiquement à rendre son robot conversationnel moins obséquieux, car il risque d’engager des personnes fragiles dans une dépendance malsaine, selon le constat dressé par ses propres chercheurs un mois auparavant. Plusieurs affaires médiatiques, rapportées notamment par le New York Times, Ars Technica, Futurism ou l’agence Reuters, ont illustré la dangereuse spirale dans laquelle certains utilisateurs peuvent tomber, avec à la clé un décrochage parfois fatal avec la réalité. Alors le 7 août, OpenAI saute le pas, annonçant une nouvelle version de son robot, GPT-5. Son ton est résolument plus froid, et il surveille désormais la durée des conversations pour suggérer des pauses quand il le juge nécessaire. Lire aussi | Article réservé à nos abonnés ChatGPT : les débuts difficiles de GPT-5, le nouveau modèle de langage d’OpenAI, jugé moins efficace et moins « amical » L’entreprise applique ainsi deux recommandations-clés issues de chercheurs en IA parmi les plus critiques, dont des experts de Google, auteurs en 2024 d’une longue recension des dangers de l’IA. Dans ce document, ceux-ci anticipent un monde où la flatterie des robots réduit « les occasions qu’ont les humains de grandir et de se développer [pour] devenir de meilleures versions d’eux-mêmes ». Voire « un monde où les utilisateurs abandonnent les interactions compliquées et imparfaites (…) avec les humains en faveur des échanges sans frictions fournis par les IA ». Il vous reste 73.15% de cet article à lire. La suite est réservée aux abonnés.
    Like
    Love
    Wow
    Sad
    Angry
    542
    · 2 Commentaires ·0 Parts
  • ChatGPT : les débuts difficiles de GPT-5, le nouveau modèle de langage d’OpenAI, jugé moins efficace et moins « amical »

    ChatGPT : les débuts difficiles de GPT-5, le nouveau modèle de langage d’OpenAI, jugé moins efficace et moins « amical » A peine lancé, GPT-5 a soulevé de nombreuses critiques, à tel point que l’entreprise californienne a annoncé des changements et le retour de GPT-4o. Read in English Article réservé aux abonnés L’entreprise californienne OpenAI a lancé GPT-5, le 7 août 2025. DADO RUVIC / REUTERS « Nous nous attendions à quelques secousses en lançant autant de choses en même temps. Mais c’était un peu plus mouvementé que prévu ! » Sam Altman, le patron d’OpenAI, a reconnu, vendredi 8 août, quelques problèmes avec GPT-5, son nouveau modèle de langage lancé la veille. A peine déployé, ce programme, accessible à tous les utilisateurs de ChatGPT, s’est attiré les foudres de nombreux internautes. Ceux-ci lui reprochent notamment d’être moins efficace que son prédécesseur et de commettre plus d’erreurs. Sam Altman a admis que GPT-5 semblait « plus bête » et a promis d’y remédier. Selon lui, ce problème vient de l’une des innovations de GPT-5 : celui-ci est censé rassembler plusieurs modèles et solliciter le plus pertinent en fonction de la complexité de la requête de l’internaute. Avant GPT-5, les utilisateurs devaient sélectionner manuellement le modèle selon leurs besoins. Désormais, GPT-5 choisit lui-même, mais les réglages restent à améliorer, laisse entendre le patron d’OpenAI. L’autre grand reproche concerne la « personnalité » de GPT-5, considéré comme plus froid, plus formel et moins bavard. « S’il vous plaît, faites revenir GPT-4o », implorait un utilisateur de Reddit lors d’une séance de questions-réponses avec Sam Altman, vendredi. « On avait l’impression d’une conversation naturelle – longue –, fluide et amicale. Les réponses sèches de GPT-5 me donnent l’impression de parler à un robot. Je ne vois pas ça comme une amélioration, Sam. » Il vous reste 67.95% de cet article à lire. La suite est réservée aux abonnés.
    #chatgpt #les #débuts #difficiles #gpt5
    ChatGPT : les débuts difficiles de GPT-5, le nouveau modèle de langage d’OpenAI, jugé moins efficace et moins « amical »
    ChatGPT : les débuts difficiles de GPT-5, le nouveau modèle de langage d’OpenAI, jugé moins efficace et moins « amical » A peine lancé, GPT-5 a soulevé de nombreuses critiques, à tel point que l’entreprise californienne a annoncé des changements et le retour de GPT-4o. Read in English Article réservé aux abonnés L’entreprise californienne OpenAI a lancé GPT-5, le 7 août 2025. DADO RUVIC / REUTERS « Nous nous attendions à quelques secousses en lançant autant de choses en même temps. Mais c’était un peu plus mouvementé que prévu ! » Sam Altman, le patron d’OpenAI, a reconnu, vendredi 8 août, quelques problèmes avec GPT-5, son nouveau modèle de langage lancé la veille. A peine déployé, ce programme, accessible à tous les utilisateurs de ChatGPT, s’est attiré les foudres de nombreux internautes. Ceux-ci lui reprochent notamment d’être moins efficace que son prédécesseur et de commettre plus d’erreurs. Sam Altman a admis que GPT-5 semblait « plus bête » et a promis d’y remédier. Selon lui, ce problème vient de l’une des innovations de GPT-5 : celui-ci est censé rassembler plusieurs modèles et solliciter le plus pertinent en fonction de la complexité de la requête de l’internaute. Avant GPT-5, les utilisateurs devaient sélectionner manuellement le modèle selon leurs besoins. Désormais, GPT-5 choisit lui-même, mais les réglages restent à améliorer, laisse entendre le patron d’OpenAI. L’autre grand reproche concerne la « personnalité » de GPT-5, considéré comme plus froid, plus formel et moins bavard. « S’il vous plaît, faites revenir GPT-4o », implorait un utilisateur de Reddit lors d’une séance de questions-réponses avec Sam Altman, vendredi. « On avait l’impression d’une conversation naturelle – longue –, fluide et amicale. Les réponses sèches de GPT-5 me donnent l’impression de parler à un robot. Je ne vois pas ça comme une amélioration, Sam. » Il vous reste 67.95% de cet article à lire. La suite est réservée aux abonnés. #chatgpt #les #débuts #difficiles #gpt5
    ChatGPT : les débuts difficiles de GPT-5, le nouveau modèle de langage d’OpenAI, jugé moins efficace et moins « amical »
    www.lemonde.fr
    ChatGPT : les débuts difficiles de GPT-5, le nouveau modèle de langage d’OpenAI, jugé moins efficace et moins « amical » A peine lancé, GPT-5 a soulevé de nombreuses critiques, à tel point que l’entreprise californienne a annoncé des changements et le retour de GPT-4o. Read in English Article réservé aux abonnés L’entreprise californienne OpenAI a lancé GPT-5, le 7 août 2025. DADO RUVIC / REUTERS « Nous nous attendions à quelques secousses en lançant autant de choses en même temps. Mais c’était un peu plus mouvementé que prévu ! » Sam Altman, le patron d’OpenAI, a reconnu, vendredi 8 août, quelques problèmes avec GPT-5, son nouveau modèle de langage lancé la veille. A peine déployé, ce programme, accessible à tous les utilisateurs de ChatGPT, s’est attiré les foudres de nombreux internautes. Ceux-ci lui reprochent notamment d’être moins efficace que son prédécesseur et de commettre plus d’erreurs. Sam Altman a admis que GPT-5 semblait « plus bête » et a promis d’y remédier. Selon lui, ce problème vient de l’une des innovations de GPT-5 : celui-ci est censé rassembler plusieurs modèles et solliciter le plus pertinent en fonction de la complexité de la requête de l’internaute. Avant GPT-5, les utilisateurs devaient sélectionner manuellement le modèle selon leurs besoins. Désormais, GPT-5 choisit lui-même, mais les réglages restent à améliorer, laisse entendre le patron d’OpenAI. L’autre grand reproche concerne la « personnalité » de GPT-5, considéré comme plus froid, plus formel et moins bavard. « S’il vous plaît, faites revenir GPT-4o », implorait un utilisateur de Reddit lors d’une séance de questions-réponses avec Sam Altman, vendredi. « On avait l’impression d’une conversation naturelle – longue –, fluide et amicale. Les réponses sèches de GPT-5 me donnent l’impression de parler à un robot. Je ne vois pas ça comme une amélioration, Sam. » Il vous reste 67.95% de cet article à lire. La suite est réservée aux abonnés.
    2 Commentaires ·0 Parts
  • "يا جماعة، كاينين لحظات في الحياة تخلينا نفكروا في معنى الوجود!

    في الحلقة الجديدة من البودكاست #56، نكتشف قصة ملهمة تتعلق بكيفاش "كُتِبَ لي عمرٌ جديد مرّتين". نتحدثوا عن التجارب اللي تخلينا نعيدوا تقييم حياتنا و نكونوا ممتنين لكل لحظة.

    شخصياً، مررت بتجربة مشابهة لما كنت في مرحلة صعيبة في حياتي، حسيت كيفاه الأمور تتغير في ثانية! هذي اللحظات تعلمنا قيمة الحياة و كيفاش يكون عندنا أمل même dans les moments difficiles.

    فكروا في كل لحظة، وفكروا كيفاش ممكن تعيشوا كل يوم وكأنو فرصة جديدة.

    https://www.youtube.com/watch?v=5R3_njzN-D4
    #قصص_ملهمة #LifeLessons #Podcast #أمل #Tunisie"
    "يا جماعة، كاينين لحظات في الحياة تخلينا نفكروا في معنى الوجود! 🌟 في الحلقة الجديدة من البودكاست #56، نكتشف قصة ملهمة تتعلق بكيفاش "كُتِبَ لي عمرٌ جديد مرّتين". نتحدثوا عن التجارب اللي تخلينا نعيدوا تقييم حياتنا و نكونوا ممتنين لكل لحظة. 😊 شخصياً، مررت بتجربة مشابهة لما كنت في مرحلة صعيبة في حياتي، حسيت كيفاه الأمور تتغير في ثانية! هذي اللحظات تعلمنا قيمة الحياة و كيفاش يكون عندنا أمل même dans les moments difficiles. فكروا في كل لحظة، وفكروا كيفاش ممكن تعيشوا كل يوم وكأنو فرصة جديدة. https://www.youtube.com/watch?v=5R3_njzN-D4 #قصص_ملهمة #LifeLessons #Podcast #أمل #Tunisie"
    1 Commentaires ·0 Parts
ollo https://www.ollo.ws