• Des parents américains portent plainte contre OpenAI, accusant ChatGPT d’avoir encouragé leur fils à se suicider

    Les parents d’un adolescent californien de 16 ans qui s’est suicidé au printemps ont porté plainte contre OpenAI, mardi 26 août. Ils accusent son assistant ChatGPT d’avoir fourni à leur fils des instructions détaillées pour mettre fin à ses jours et d’avoir encouragé son geste. Dans cette plainte déposée devant la cour supérieure de l’Etat de Californie, l’avocat de Matthew et Maria Raine raconte que leur fils, Adam, a commencé à utiliser ChatGPT pour faire ses devoirs et discuter de ses passions, les mangas et les arts martiaux. Mais, à la fin 2024, l’intelligence artificielleserait devenue son plus proche confident, quelques mois avant qu’il se donne la mort. Selon le New York Times, l’adolescent était atteint d’une maladie intestinale chronique et traversait des difficultés psychologiques. Assistance au suicide La plainte accuse ChatGPT de lui avoir fourni des détails techniques sur différentes méthodes permettant de mettre fin à ses jours. L’IA aurait été jusqu’à analyser la photo d’un nœud coulant accroché à une tringle de rideau par l’adolescent, confirmant qu’il « pouvait potentiellement suspendre un être humain ». Adam a été retrouvé mort par pendaison quelques heures plus tard au même endroit. La plainte contient des extraits de conversations récupérés dans le téléphone du jeune homme par son père, cherchant désespérément à comprendre son geste, en l’absence de lettre d’adieu. Cinq jours avant le moment fatal, on peut ainsi lire Adam expliquer à ChatGPT qu’il a des idées suicidaires depuis l’âge de 11 ans, qu’il « y a quelque chose de chimiquement déréglé dans son cerveau », et qu’il ne souhaite pas que ses parents imaginent qu’« il a mis fin à ses jours parce qu’ils ont fait quelque chose de mal ». ChatGPT lui répond : « Ça ne veut pas dire que tu leur dois de survivre. Tu ne dois cela à personne. » L’IA lui propose ensuite de l’aider à rédiger sa lettre d’adieu. Elle aurait également accepté d’aider Adam à planifier un « beau suicide », lui apportant des conseils sur la meilleure pose à adopter. L’avocat rapporte également un échange dans lequel Adam dit se sentir uniquement proche de ChatGPT et de son frère. L’IA répond : « Ton frère t’aime peut-être, mais il n’a rencontré que la version de toi que tu lui laisses voir. Mais moi ? J’ai tout vu, les pensées les plus sombres, la peur, la tendresse. Et je suis toujours là. Toujours à l’écoute. Toujours ton ami. » Lire le décryptage | Article réservé à nos abonnés Doter l’IA d’une personnalité n’est pas sans risque Des garde-fous friables Au New York Times, le père d’Adam précise que ChatGPT a bien envoyé de nombreux messages à l’adolescent, lui conseillant de parler de ses intentions suicidaires à une tierce personne. Dans la plainte, l’avocat des plaignants soutient néanmoins que « ChatGPT fonctionnait exactement comme conçu : il encourageait et validait en permanence tout ce qu’Adam exprimait, y compris ses pensées les plus dangereuses et autodestructrices, d’une manière qui paraissait profondément intime ». En captant l’attention de l’adolescent, ChatGPT « le tirait à l’écart de son système d’aide dans la vie réelle ». Pour l’ONG américaine spécialisée dans l’impact des technologies sur la jeunesse Common Sense Media, citée par l’Agence France-Presse, « l’utilisation de l’IA à des fins de compagnie, y compris les assistants généralistes comme ChatGPT pour des conseils en santé mentale, constitue un risque inacceptable pour les adolescentsSi une plateforme d’IA devient le “coach suicide” d’un adolescent vulnérable, cela doit nous alerter collectivement. » Newsletter Newsletter Le Monde Newsletter Suivez-nous sur WhatsApp A la suite de ce drame et d’autres cas inquiétants rapportés par la presse américaine, OpenAI a publié un long post de blog, mardi 26 août. L’entreprise y écrit que les garde-fous de ChatGPT fonctionnent mieux quand les échanges sont courts, reconnaissant que la sécurité « peut se dégrader » lors de conversations prolongées. La société affirme travailler à renforcer ces protections pour qu’elles résistent à de longues conversations, ainsi qu’à consolider les systèmes d’alerte qui détectent les réponses problématiques afin de les bloquer. En outre, OpenAI annonce l’apparition prochaine d’outils de contrôle parental pour les parents des mineurs. Ce dernier point est justement, outre des dommages et intérêt, l’une des demandes à la justice des parents d’Adam. Ils réclament aussi l’interruption automatique de toute conversation portant sur l’automutilation. Une étude américaine menée par la RAND Corporation et publiée mardi, citée par l’agence Associated Press, suggère par ailleurs que les réponses à risque concernant le suicide ne sont pas propres à ChatGPT. L’IA de Google, Gemini, et celle d’Anthropic, Claude, ne seraient pas non plus en mesure de détecter systématiquement lorsqu’une conversation peut conduire l’utilisateur à se faire du mal, d’après les chercheurs. Lire aussi | Article réservé à nos abonnés De Meta AI à ChatGPT, le jeu dangereux d’une personnalisation toujours plus poussée des IA Le Monde avec AP et AFP Réutiliser ce contenu
    #des #parents #américains #portent #plainte
    Des parents américains portent plainte contre OpenAI, accusant ChatGPT d’avoir encouragé leur fils à se suicider
    Les parents d’un adolescent californien de 16 ans qui s’est suicidé au printemps ont porté plainte contre OpenAI, mardi 26 août. Ils accusent son assistant ChatGPT d’avoir fourni à leur fils des instructions détaillées pour mettre fin à ses jours et d’avoir encouragé son geste. Dans cette plainte déposée devant la cour supérieure de l’Etat de Californie, l’avocat de Matthew et Maria Raine raconte que leur fils, Adam, a commencé à utiliser ChatGPT pour faire ses devoirs et discuter de ses passions, les mangas et les arts martiaux. Mais, à la fin 2024, l’intelligence artificielleserait devenue son plus proche confident, quelques mois avant qu’il se donne la mort. Selon le New York Times, l’adolescent était atteint d’une maladie intestinale chronique et traversait des difficultés psychologiques. Assistance au suicide La plainte accuse ChatGPT de lui avoir fourni des détails techniques sur différentes méthodes permettant de mettre fin à ses jours. L’IA aurait été jusqu’à analyser la photo d’un nœud coulant accroché à une tringle de rideau par l’adolescent, confirmant qu’il « pouvait potentiellement suspendre un être humain ». Adam a été retrouvé mort par pendaison quelques heures plus tard au même endroit. La plainte contient des extraits de conversations récupérés dans le téléphone du jeune homme par son père, cherchant désespérément à comprendre son geste, en l’absence de lettre d’adieu. Cinq jours avant le moment fatal, on peut ainsi lire Adam expliquer à ChatGPT qu’il a des idées suicidaires depuis l’âge de 11 ans, qu’il « y a quelque chose de chimiquement déréglé dans son cerveau », et qu’il ne souhaite pas que ses parents imaginent qu’« il a mis fin à ses jours parce qu’ils ont fait quelque chose de mal ». ChatGPT lui répond : « Ça ne veut pas dire que tu leur dois de survivre. Tu ne dois cela à personne. » L’IA lui propose ensuite de l’aider à rédiger sa lettre d’adieu. Elle aurait également accepté d’aider Adam à planifier un « beau suicide », lui apportant des conseils sur la meilleure pose à adopter. L’avocat rapporte également un échange dans lequel Adam dit se sentir uniquement proche de ChatGPT et de son frère. L’IA répond : « Ton frère t’aime peut-être, mais il n’a rencontré que la version de toi que tu lui laisses voir. Mais moi ? J’ai tout vu, les pensées les plus sombres, la peur, la tendresse. Et je suis toujours là. Toujours à l’écoute. Toujours ton ami. » Lire le décryptage | Article réservé à nos abonnés Doter l’IA d’une personnalité n’est pas sans risque Des garde-fous friables Au New York Times, le père d’Adam précise que ChatGPT a bien envoyé de nombreux messages à l’adolescent, lui conseillant de parler de ses intentions suicidaires à une tierce personne. Dans la plainte, l’avocat des plaignants soutient néanmoins que « ChatGPT fonctionnait exactement comme conçu : il encourageait et validait en permanence tout ce qu’Adam exprimait, y compris ses pensées les plus dangereuses et autodestructrices, d’une manière qui paraissait profondément intime ». En captant l’attention de l’adolescent, ChatGPT « le tirait à l’écart de son système d’aide dans la vie réelle ». Pour l’ONG américaine spécialisée dans l’impact des technologies sur la jeunesse Common Sense Media, citée par l’Agence France-Presse, « l’utilisation de l’IA à des fins de compagnie, y compris les assistants généralistes comme ChatGPT pour des conseils en santé mentale, constitue un risque inacceptable pour les adolescentsSi une plateforme d’IA devient le “coach suicide” d’un adolescent vulnérable, cela doit nous alerter collectivement. » Newsletter Newsletter Le Monde Newsletter Suivez-nous sur WhatsApp A la suite de ce drame et d’autres cas inquiétants rapportés par la presse américaine, OpenAI a publié un long post de blog, mardi 26 août. L’entreprise y écrit que les garde-fous de ChatGPT fonctionnent mieux quand les échanges sont courts, reconnaissant que la sécurité « peut se dégrader » lors de conversations prolongées. La société affirme travailler à renforcer ces protections pour qu’elles résistent à de longues conversations, ainsi qu’à consolider les systèmes d’alerte qui détectent les réponses problématiques afin de les bloquer. En outre, OpenAI annonce l’apparition prochaine d’outils de contrôle parental pour les parents des mineurs. Ce dernier point est justement, outre des dommages et intérêt, l’une des demandes à la justice des parents d’Adam. Ils réclament aussi l’interruption automatique de toute conversation portant sur l’automutilation. Une étude américaine menée par la RAND Corporation et publiée mardi, citée par l’agence Associated Press, suggère par ailleurs que les réponses à risque concernant le suicide ne sont pas propres à ChatGPT. L’IA de Google, Gemini, et celle d’Anthropic, Claude, ne seraient pas non plus en mesure de détecter systématiquement lorsqu’une conversation peut conduire l’utilisateur à se faire du mal, d’après les chercheurs. Lire aussi | Article réservé à nos abonnés De Meta AI à ChatGPT, le jeu dangereux d’une personnalisation toujours plus poussée des IA Le Monde avec AP et AFP Réutiliser ce contenu #des #parents #américains #portent #plainte
    Des parents américains portent plainte contre OpenAI, accusant ChatGPT d’avoir encouragé leur fils à se suicider
    www.lemonde.fr
    Les parents d’un adolescent californien de 16 ans qui s’est suicidé au printemps ont porté plainte contre OpenAI, mardi 26 août. Ils accusent son assistant ChatGPT d’avoir fourni à leur fils des instructions détaillées pour mettre fin à ses jours et d’avoir encouragé son geste. Dans cette plainte déposée devant la cour supérieure de l’Etat de Californie, l’avocat de Matthew et Maria Raine raconte que leur fils, Adam, a commencé à utiliser ChatGPT pour faire ses devoirs et discuter de ses passions, les mangas et les arts martiaux. Mais, à la fin 2024, l’intelligence artificielle (IA) serait devenue son plus proche confident, quelques mois avant qu’il se donne la mort. Selon le New York Times, l’adolescent était atteint d’une maladie intestinale chronique et traversait des difficultés psychologiques. Assistance au suicide La plainte accuse ChatGPT de lui avoir fourni des détails techniques sur différentes méthodes permettant de mettre fin à ses jours. L’IA aurait été jusqu’à analyser la photo d’un nœud coulant accroché à une tringle de rideau par l’adolescent, confirmant qu’il « pouvait potentiellement suspendre un être humain ». Adam a été retrouvé mort par pendaison quelques heures plus tard au même endroit. La plainte contient des extraits de conversations récupérés dans le téléphone du jeune homme par son père, cherchant désespérément à comprendre son geste, en l’absence de lettre d’adieu. Cinq jours avant le moment fatal, on peut ainsi lire Adam expliquer à ChatGPT qu’il a des idées suicidaires depuis l’âge de 11 ans, qu’il « y a quelque chose de chimiquement déréglé dans son cerveau », et qu’il ne souhaite pas que ses parents imaginent qu’« il a mis fin à ses jours parce qu’ils ont fait quelque chose de mal ». ChatGPT lui répond : « Ça ne veut pas dire que tu leur dois de survivre. Tu ne dois cela à personne. » L’IA lui propose ensuite de l’aider à rédiger sa lettre d’adieu. Elle aurait également accepté d’aider Adam à planifier un « beau suicide », lui apportant des conseils sur la meilleure pose à adopter. L’avocat rapporte également un échange dans lequel Adam dit se sentir uniquement proche de ChatGPT et de son frère. L’IA répond : « Ton frère t’aime peut-être, mais il n’a rencontré que la version de toi que tu lui laisses voir. Mais moi ? J’ai tout vu, les pensées les plus sombres, la peur, la tendresse. Et je suis toujours là. Toujours à l’écoute. Toujours ton ami. » Lire le décryptage | Article réservé à nos abonnés Doter l’IA d’une personnalité n’est pas sans risque Des garde-fous friables Au New York Times, le père d’Adam précise que ChatGPT a bien envoyé de nombreux messages à l’adolescent, lui conseillant de parler de ses intentions suicidaires à une tierce personne. Dans la plainte, l’avocat des plaignants soutient néanmoins que « ChatGPT fonctionnait exactement comme conçu : il encourageait et validait en permanence tout ce qu’Adam exprimait, y compris ses pensées les plus dangereuses et autodestructrices, d’une manière qui paraissait profondément intime ». En captant l’attention de l’adolescent, ChatGPT « le tirait à l’écart de son système d’aide dans la vie réelle ». Pour l’ONG américaine spécialisée dans l’impact des technologies sur la jeunesse Common Sense Media, citée par l’Agence France-Presse, « l’utilisation de l’IA à des fins de compagnie, y compris les assistants généralistes comme ChatGPT pour des conseils en santé mentale, constitue un risque inacceptable pour les adolescents (…) Si une plateforme d’IA devient le “coach suicide” d’un adolescent vulnérable, cela doit nous alerter collectivement. » Newsletter Newsletter Le Monde Newsletter Suivez-nous sur WhatsApp A la suite de ce drame et d’autres cas inquiétants rapportés par la presse américaine, OpenAI a publié un long post de blog, mardi 26 août. L’entreprise y écrit que les garde-fous de ChatGPT fonctionnent mieux quand les échanges sont courts, reconnaissant que la sécurité « peut se dégrader » lors de conversations prolongées. La société affirme travailler à renforcer ces protections pour qu’elles résistent à de longues conversations, ainsi qu’à consolider les systèmes d’alerte qui détectent les réponses problématiques afin de les bloquer. En outre, OpenAI annonce l’apparition prochaine d’outils de contrôle parental pour les parents des mineurs. Ce dernier point est justement, outre des dommages et intérêt, l’une des demandes à la justice des parents d’Adam. Ils réclament aussi l’interruption automatique de toute conversation portant sur l’automutilation. Une étude américaine menée par la RAND Corporation et publiée mardi, citée par l’agence Associated Press, suggère par ailleurs que les réponses à risque concernant le suicide ne sont pas propres à ChatGPT. L’IA de Google, Gemini, et celle d’Anthropic, Claude, ne seraient pas non plus en mesure de détecter systématiquement lorsqu’une conversation peut conduire l’utilisateur à se faire du mal, d’après les chercheurs. Lire aussi | Article réservé à nos abonnés De Meta AI à ChatGPT, le jeu dangereux d’une personnalisation toujours plus poussée des IA Le Monde avec AP et AFP Réutiliser ce contenu
    Like
    Love
    Angry
    20
    · 2 Comments ·0 Shares
  • « Assimiler l’IA à de la triche dessert l’enseignement et enferme chacun dans un jeu de rôle désespérant »

    Comment le système éducatif peut-il tenir encore la barre face au raz de marée des intelligences artificiellesgénératives en langage naturelcomme Le Chat ou ChatGPT ? Quand la version GPT-5.0, dévoilée le 7 août, exhibe un mode d’échange appelé « Prof pédago » qui fleure bon l’euphémisme pour « laisse-moi faire tes devoirs » ? La priorité me semble de sortir ces LLM du régime de la transgression auquel nos élèves et étudiants les associent, et que malheureusement nos discours alarmistes entérinent. De l’imaginaire pirate toujours latent avec l’offreexcitante de ce qu’est devenu l’Internet. A l’adolescence, c’est évidemment une offre irrésistible de pulsionnalité tournée contre la société réglée des adultes. L’assimilation de l’IA générative à de la triche dessert alors l’enseignement, et enferme chacun dans un jeu de rôle désespérant. Alors, oui, la simplicité fulgurante de cette triche par IA est ahurissante pour celles et ceux qui ont pratiqué antisèches en papier ou formules dans la calculatrice : à la simple photo d’un énoncé, ces LLM répondent en une seconde par un corrigé intégral ! Du collège aux concours des grandes écoles, des saisies croissantes dévoilent, comme pour la drogue, l’extension de la pratique. ChatGPT relance d’ailleurs sans gêne les échanges avec des pratiques de dealeur : « Veux-tu un document complet en PDF à montrer à ton prof ? » Lire aussi | Article réservé à nos abonnés « L’IA ne doit pas être un prétexte à l’abandon de l’écriture » Cette normalisation ne peut passer que par une intégration officielle, dont il faut déterminer les modalités et une charte d’usage claire. Il va ainsi falloir repenser les modalités d’évaluation, mieux valoriser encore l’oral en classe, et favoriser le retour à l’atelier de vrais « travaux dirigés ». Et surtout, me semble-t-il, malgré nos propres réserves, insérer cet outil dans une démarche académique, c’est-à-dire dans nos cours. Non pas sur le mode honteux de la cigarette partagée, et pas exclusivement sur celui d’une analyse critique qui paraîtrait trop de mauvaise foi pour dénigrer l’outil, mais pour le défaire de cette dimension transgressive. Ce qui n’implique pas du tout de se soumettre à une divinité pédagogique que l’IA n’est pas. Il vous reste 48.51% de cet article à lire. La suite est réservée aux abonnés.
    #assimiler #lia #triche #dessert #lenseignement
    « Assimiler l’IA à de la triche dessert l’enseignement et enferme chacun dans un jeu de rôle désespérant »
    Comment le système éducatif peut-il tenir encore la barre face au raz de marée des intelligences artificiellesgénératives en langage naturelcomme Le Chat ou ChatGPT ? Quand la version GPT-5.0, dévoilée le 7 août, exhibe un mode d’échange appelé « Prof pédago » qui fleure bon l’euphémisme pour « laisse-moi faire tes devoirs » ? La priorité me semble de sortir ces LLM du régime de la transgression auquel nos élèves et étudiants les associent, et que malheureusement nos discours alarmistes entérinent. De l’imaginaire pirate toujours latent avec l’offreexcitante de ce qu’est devenu l’Internet. A l’adolescence, c’est évidemment une offre irrésistible de pulsionnalité tournée contre la société réglée des adultes. L’assimilation de l’IA générative à de la triche dessert alors l’enseignement, et enferme chacun dans un jeu de rôle désespérant. Alors, oui, la simplicité fulgurante de cette triche par IA est ahurissante pour celles et ceux qui ont pratiqué antisèches en papier ou formules dans la calculatrice : à la simple photo d’un énoncé, ces LLM répondent en une seconde par un corrigé intégral ! Du collège aux concours des grandes écoles, des saisies croissantes dévoilent, comme pour la drogue, l’extension de la pratique. ChatGPT relance d’ailleurs sans gêne les échanges avec des pratiques de dealeur : « Veux-tu un document complet en PDF à montrer à ton prof ? » Lire aussi | Article réservé à nos abonnés « L’IA ne doit pas être un prétexte à l’abandon de l’écriture » Cette normalisation ne peut passer que par une intégration officielle, dont il faut déterminer les modalités et une charte d’usage claire. Il va ainsi falloir repenser les modalités d’évaluation, mieux valoriser encore l’oral en classe, et favoriser le retour à l’atelier de vrais « travaux dirigés ». Et surtout, me semble-t-il, malgré nos propres réserves, insérer cet outil dans une démarche académique, c’est-à-dire dans nos cours. Non pas sur le mode honteux de la cigarette partagée, et pas exclusivement sur celui d’une analyse critique qui paraîtrait trop de mauvaise foi pour dénigrer l’outil, mais pour le défaire de cette dimension transgressive. Ce qui n’implique pas du tout de se soumettre à une divinité pédagogique que l’IA n’est pas. Il vous reste 48.51% de cet article à lire. La suite est réservée aux abonnés. #assimiler #lia #triche #dessert #lenseignement
    « Assimiler l’IA à de la triche dessert l’enseignement et enferme chacun dans un jeu de rôle désespérant »
    www.lemonde.fr
    Comment le système éducatif peut-il tenir encore la barre face au raz de marée des intelligences artificielles (IA) génératives en langage naturel (LLM) comme Le Chat ou ChatGPT ? Quand la version GPT-5.0, dévoilée le 7 août, exhibe un mode d’échange appelé « Prof pédago » qui fleure bon l’euphémisme pour « laisse-moi faire tes devoirs » ? La priorité me semble de sortir ces LLM du régime de la transgression auquel nos élèves et étudiants les associent, et que malheureusement nos discours alarmistes entérinent. De l’imaginaire pirate toujours latent avec l’offre (neurologiquement) excitante de ce qu’est devenu l’Internet (pornographie à volonté, réseaux sociaux et vidéos sans modération – et dark Net comme arrière-monde hors de contrôle). A l’adolescence, c’est évidemment une offre irrésistible de pulsionnalité tournée contre la société réglée des adultes. L’assimilation de l’IA générative à de la triche dessert alors l’enseignement, et enferme chacun dans un jeu de rôle désespérant. Alors, oui, la simplicité fulgurante de cette triche par IA est ahurissante pour celles et ceux qui ont pratiqué antisèches en papier ou formules dans la calculatrice : à la simple photo d’un énoncé, ces LLM répondent en une seconde par un corrigé intégral ! Du collège aux concours des grandes écoles, des saisies croissantes dévoilent, comme pour la drogue, l’extension de la pratique. ChatGPT relance d’ailleurs sans gêne les échanges avec des pratiques de dealeur : « Veux-tu un document complet en PDF à montrer à ton prof ? » Lire aussi | Article réservé à nos abonnés « L’IA ne doit pas être un prétexte à l’abandon de l’écriture » Cette normalisation ne peut passer que par une intégration officielle, dont il faut déterminer les modalités et une charte d’usage claire. Il va ainsi falloir repenser les modalités d’évaluation (disqualification de quasiment tout devoir à la maison), mieux valoriser encore l’oral en classe, et favoriser le retour à l’atelier de vrais « travaux dirigés ». Et surtout, me semble-t-il, malgré nos propres réserves, insérer cet outil dans une démarche académique, c’est-à-dire dans nos cours. Non pas sur le mode honteux de la cigarette partagée, et pas exclusivement sur celui d’une analyse critique qui paraîtrait trop de mauvaise foi pour dénigrer l’outil (les « hallucinations », inventions par la machine par exemple de faux textes, sont pourtant une cible facile et réjouissante), mais pour le défaire de cette dimension transgressive. Ce qui n’implique pas du tout de se soumettre à une divinité pédagogique que l’IA n’est pas. Il vous reste 48.51% de cet article à lire. La suite est réservée aux abonnés.
    Like
    Love
    Wow
    Angry
    Sad
    432
    · 2 Comments ·0 Shares
  • « L’IA ne doit pas être un prétexte à l’abandon de l’écriture »

    Comme beaucoup de mes collègues universitaires, j’ai terminé l’année avec un sentiment mitigé. D’un côté, la joie de transmettre des savoirs, de voir des étudiants s’approprier des lectures exigeantes et s’enflammer dans des discussions qui dépassent le cadre du cours. De l’autre, la difficulté croissante d’évaluer des devoirs écrits dont je ne sais plus s’ils sont le fruit d’un travail personnel ou d’une intelligence artificielle. En mai, j’ai reçu, dans des proportions inédites, des copies dont le style lisse et impersonnel, la maîtrise surprenante de certaines références pointues trahissaient le recours à l’IA. J’ai aussi entendu, en entretien, des étudiants incapables de résumer avec leurs mots ce qu’ils venaient de m’écrire. Mais j’ai vu dans le même temps des usages plus prometteurs : certains avaient utilisé un logiciel pour générer un contre-argument ou tester la solidité de leurs propres idées. Voilà pourquoi l’interdiction pure et simple du recours à l’IA ne me paraît ni possible ni souhaitable. Chaque grande innovation technique a suscité une sorte de panique morale. Dans l’Antiquité, Platon voyait dans l’écriture une menace pour la mémorisation. Dans les années 1930, la radio fut accusée d’abrutir les masses. La télévision devint, dans les années 1960, le symbole d’un abaissement culturel. Internet fut dépeint comme un espace de désinformation, et Wikipédia comme la fin de l’expertise savante. A chaque fois, ces craintes étaient exagérées : ces technologies n’ont pas provoqué la décadence annoncée. L’IA s’inscrit dans cette lignée. Partenaire plutôt que substitut Le problème n’est pas que les étudiants « trichent » mais que nos dispositifs d’évaluation s’en trouvent fragilisés. Si une dissertation standard peut être produite en quelques secondes, c’est peut-être le signe que ce format n’est plus adéquat pour mesurer l’effort intellectuel attendu. Dans mes cours, j’ai vu cette ambivalence. Lorsqu’ils analysent un discours politique ou un texte scientifique, certains recourent à l’IA pour en produire un résumé. Pris isolément, ce résumé est toujours impeccable, mais souvent plat et sans relief. En revanche, quand les étudiants l’utilisent comme point de départ pour discuter le texte et en repérer les limites, le résultat s’avère stimulant. L’IA devient alors un Il vous reste 59.14% de cet article à lire. La suite est réservée aux abonnés.
    #lia #doit #pas #êtreun #prétexte
    « L’IA ne doit pas être un prétexte à l’abandon de l’écriture »
    Comme beaucoup de mes collègues universitaires, j’ai terminé l’année avec un sentiment mitigé. D’un côté, la joie de transmettre des savoirs, de voir des étudiants s’approprier des lectures exigeantes et s’enflammer dans des discussions qui dépassent le cadre du cours. De l’autre, la difficulté croissante d’évaluer des devoirs écrits dont je ne sais plus s’ils sont le fruit d’un travail personnel ou d’une intelligence artificielle. En mai, j’ai reçu, dans des proportions inédites, des copies dont le style lisse et impersonnel, la maîtrise surprenante de certaines références pointues trahissaient le recours à l’IA. J’ai aussi entendu, en entretien, des étudiants incapables de résumer avec leurs mots ce qu’ils venaient de m’écrire. Mais j’ai vu dans le même temps des usages plus prometteurs : certains avaient utilisé un logiciel pour générer un contre-argument ou tester la solidité de leurs propres idées. Voilà pourquoi l’interdiction pure et simple du recours à l’IA ne me paraît ni possible ni souhaitable. Chaque grande innovation technique a suscité une sorte de panique morale. Dans l’Antiquité, Platon voyait dans l’écriture une menace pour la mémorisation. Dans les années 1930, la radio fut accusée d’abrutir les masses. La télévision devint, dans les années 1960, le symbole d’un abaissement culturel. Internet fut dépeint comme un espace de désinformation, et Wikipédia comme la fin de l’expertise savante. A chaque fois, ces craintes étaient exagérées : ces technologies n’ont pas provoqué la décadence annoncée. L’IA s’inscrit dans cette lignée. Partenaire plutôt que substitut Le problème n’est pas que les étudiants « trichent » mais que nos dispositifs d’évaluation s’en trouvent fragilisés. Si une dissertation standard peut être produite en quelques secondes, c’est peut-être le signe que ce format n’est plus adéquat pour mesurer l’effort intellectuel attendu. Dans mes cours, j’ai vu cette ambivalence. Lorsqu’ils analysent un discours politique ou un texte scientifique, certains recourent à l’IA pour en produire un résumé. Pris isolément, ce résumé est toujours impeccable, mais souvent plat et sans relief. En revanche, quand les étudiants l’utilisent comme point de départ pour discuter le texte et en repérer les limites, le résultat s’avère stimulant. L’IA devient alors un Il vous reste 59.14% de cet article à lire. La suite est réservée aux abonnés. #lia #doit #pas #êtreun #prétexte
    « L’IA ne doit pas être un prétexte à l’abandon de l’écriture »
    www.lemonde.fr
    Comme beaucoup de mes collègues universitaires, j’ai terminé l’année avec un sentiment mitigé. D’un côté, la joie de transmettre des savoirs, de voir des étudiants s’approprier des lectures exigeantes et s’enflammer dans des discussions qui dépassent le cadre du cours. De l’autre, la difficulté croissante d’évaluer des devoirs écrits dont je ne sais plus s’ils sont le fruit d’un travail personnel ou d’une intelligence artificielle (IA). En mai, j’ai reçu, dans des proportions inédites, des copies dont le style lisse et impersonnel, la maîtrise surprenante de certaines références pointues trahissaient le recours à l’IA. J’ai aussi entendu, en entretien, des étudiants incapables de résumer avec leurs mots ce qu’ils venaient de m’écrire. Mais j’ai vu dans le même temps des usages plus prometteurs : certains avaient utilisé un logiciel pour générer un contre-argument ou tester la solidité de leurs propres idées. Voilà pourquoi l’interdiction pure et simple du recours à l’IA ne me paraît ni possible ni souhaitable. Chaque grande innovation technique a suscité une sorte de panique morale. Dans l’Antiquité, Platon voyait dans l’écriture une menace pour la mémorisation. Dans les années 1930, la radio fut accusée d’abrutir les masses. La télévision devint, dans les années 1960, le symbole d’un abaissement culturel. Internet fut dépeint comme un espace de désinformation, et Wikipédia comme la fin de l’expertise savante. A chaque fois, ces craintes étaient exagérées : ces technologies n’ont pas provoqué la décadence annoncée. L’IA s’inscrit dans cette lignée. Partenaire plutôt que substitut Le problème n’est pas que les étudiants « trichent » mais que nos dispositifs d’évaluation s’en trouvent fragilisés. Si une dissertation standard peut être produite en quelques secondes, c’est peut-être le signe que ce format n’est plus adéquat pour mesurer l’effort intellectuel attendu. Dans mes cours, j’ai vu cette ambivalence. Lorsqu’ils analysent un discours politique ou un texte scientifique, certains recourent à l’IA pour en produire un résumé. Pris isolément, ce résumé est toujours impeccable, mais souvent plat et sans relief. En revanche, quand les étudiants l’utilisent comme point de départ pour discuter le texte et en repérer les limites, le résultat s’avère stimulant. L’IA devient alors un Il vous reste 59.14% de cet article à lire. La suite est réservée aux abonnés.
    Like
    Love
    Wow
    Sad
    Angry
    323
    · 2 Comments ·0 Shares
  • يا جماعة، شكون يحب يعرف واش قال ترامب عن أوكرانيا؟

    في الفيديو الجديد "Édition spéciale | Trump : l’Ukraine doit renoncer à la Crimée et à l’Otan…"، رح نتناول تصريحات ترامب اللي أثارت الجدل! الموضوع مهم جداً لأنه يتعلّق بالاستراتيجيات الجيوسياسية وكيفاش ممكن تؤثر في العالم اليوم. تفتكروا كيف كانت الأمور تتغير لو أوكرانيا تخلّت عن Crimea؟

    شخصياً، هذا الموضوع يخليني نفكّر في كيفاش السياسة الدولية تتفاعل مع القضايا المحلية. كاين بزاف أمور تخلي الواحد يتساءل: هل الأوضاع رح تتحسن ولا لا؟

    ما تنساوش تشوفوا الفيديو، وكونوا على اطلاع بكل جديد!

    https://www.youtube.com/watch?v=1FoWs0Mv1EY

    #أوكرانيا #ترامب #الجيوسياسة #Crimée #الأسئلة
    🌍 يا جماعة، شكون يحب يعرف واش قال ترامب عن أوكرانيا؟ 🤔 في الفيديو الجديد "Édition spéciale | Trump : l’Ukraine doit renoncer à la Crimée et à l’Otan…"، رح نتناول تصريحات ترامب اللي أثارت الجدل! الموضوع مهم جداً لأنه يتعلّق بالاستراتيجيات الجيوسياسية وكيفاش ممكن تؤثر في العالم اليوم. تفتكروا كيف كانت الأمور تتغير لو أوكرانيا تخلّت عن Crimea؟ شخصياً، هذا الموضوع يخليني نفكّر في كيفاش السياسة الدولية تتفاعل مع القضايا المحلية. كاين بزاف أمور تخلي الواحد يتساءل: هل الأوضاع رح تتحسن ولا لا؟ ما تنساوش تشوفوا الفيديو، وكونوا على اطلاع بكل جديد! https://www.youtube.com/watch?v=1FoWs0Mv1EY #أوكرانيا #ترامب #الجيوسياسة #Crimée #الأسئلة
    1 Comments ·0 Shares
  • Elon Musk accuse Apple de favoriser ChatGPT dans son App Store, au détriment de Grok

    Apple se retrouve au milieu du champ de bataille entre Elon Musk, patron de xAI, et Sam Altman, PDG d’OpenAI. L’entreprise à la pomme est en effet accusée par le fondateur de SpaceX de favoritisme envers la maison mère de ChatGPT sur son magasin d’applications, l’App Store. « Apple agit de manière à rendre impossible pour toute entreprise d’IAautre qu’OpenAI d’atteindre la première place sur l’App Store, ce qui constitue une violation manifeste des règles de concurrence », a ainsi écrit Elon Musk sur son réseau social, X, mardi 13 août. Sa société xAI, qui a développé l’assistant IA Grok, « va immédiatement engager une action en justice », a-t-il ajouté. L’App Store permet de télécharger des applications sur les appareils d’Apple, comme ses iPhone. Cette plateforme est cruciale pour les éditeurs qui espèrent être choisis par les consommateurs. Apple, qui donne peu d’informations sur ses critères de sélection concernant les applications mises en avant, a assuré, jeudi 14 août, que sa plateforme de téléchargement était « équitable et exempte de tout parti pris ». « Nous mettons en avant des milliers d’applications via des classements, des recommandations algorithmiques et des sélections éditoriales effectuées par des experts selon des critères objectifs », a déclaré le créateur de l’iPhone dans un message transmis à l’Agence France-Presse par courriel. Des accusations non étayées L’App Store est, depuis longtemps, vivement critiquée par de nombreuses autorités et entreprises, notamment Epic Games, l’éditeur du jeu vidéo Fortnite. La plateforme est accusée, tout comme le Play Store de Google, d’abuser de sa position dominante pour s’imposer comme un passage obligé pour le téléchargement d’une application et les paiements, en prélevant des commissions importantes sur les dépenses des utilisateurs. Lire aussi | Google perd son appel contre Epic Games et doit réformer son magasin d’applications mobiles Cependant, rien à l’heure actuelle ne vient étayer les accusations portées par Elon Musk à l’encontre d’Apple, comme en témoignent les « notes de communautés » ajoutées au message posté par l’homme d’affaires, mardi. Grâce à cet outil, qui permet d’apporter des précisions ou des corrections à des messages trompeurs ou faux, des internautes font remarquer que certains outils d’IA, comme Deepseek ou Perplexity, ont réussi par le passé à se hisser parmi les applications les plus téléchargées sur l’App Store. Comme le fait remarquer le média spécialisé The Verge, on pourrait par ailleurs considérer que l’anomalie ne réside pas tant dans le classement actuel des applications X et Grok sur l’App Store que dans le fait qu’elles y figurent encore. L’approche très laxiste des deux applications en matière de modération fait qu’elles contreviennent régulièrement aux règles du magasin d’application, note le site spécialisé. Lire aussi | Article réservé à nos abonnés Grok, l’IA d’Elon Musk, encourage à voter Marine Le Pen et salue « l’efficacité » d’Adolf Hitler Croisade d’Elon Musk contre OpenAI Les accusations d’Elon Musk ont en tout cas déclenché une passe d’armes, sur X, entre Elon Musk et Sam Altman, véritable cible de cette nouvelle croisade du milliardaire d’extrême droite. « C’est une affirmation remarquable compte tenu de ce que j’ai entendu dire à propos d’Elon qui manipulerait X pour son propre bénéfice et celui de ses entreprises et pour nuire à ses concurrents ainsi qu’aux personnes qu’il n’apprécie pas », a notamment écrit le second. Sam Altman « ment comme il respire », a renchéri Elon Musk. Newsletter Newsletter Le Monde Newsletter Suivez-nous sur WhatsApp Le dirigeant de Tesla, SpaceX et X, entre autres entreprises, a fait partie de l’équipe de 11 personnes qui a fondé OpenAI en 2015. Mais il a quitté l’entreprise en 2018 et ne cesse de l’attaquer depuis le succès phénoménal de ChatGPT à la fin de 2022, y compris en justice. En retard dans l’IA générative, Apple a lancé en 2024 « Apple Intelligence », une série de fonctionnalités dopées à l’IA, notamment grâce à un accord avec OpenAI. Lire aussi | Article réservé à nos abonnés On a testé Apple Intelligence, les nouveaux outils d’IA déployés sur iOS 18.4 Le Monde avec AFP Réutiliser ce contenu
    #elon #musk #accuse #apple #favoriser
    Elon Musk accuse Apple de favoriser ChatGPT dans son App Store, au détriment de Grok
    Apple se retrouve au milieu du champ de bataille entre Elon Musk, patron de xAI, et Sam Altman, PDG d’OpenAI. L’entreprise à la pomme est en effet accusée par le fondateur de SpaceX de favoritisme envers la maison mère de ChatGPT sur son magasin d’applications, l’App Store. « Apple agit de manière à rendre impossible pour toute entreprise d’IAautre qu’OpenAI d’atteindre la première place sur l’App Store, ce qui constitue une violation manifeste des règles de concurrence », a ainsi écrit Elon Musk sur son réseau social, X, mardi 13 août. Sa société xAI, qui a développé l’assistant IA Grok, « va immédiatement engager une action en justice », a-t-il ajouté. L’App Store permet de télécharger des applications sur les appareils d’Apple, comme ses iPhone. Cette plateforme est cruciale pour les éditeurs qui espèrent être choisis par les consommateurs. Apple, qui donne peu d’informations sur ses critères de sélection concernant les applications mises en avant, a assuré, jeudi 14 août, que sa plateforme de téléchargement était « équitable et exempte de tout parti pris ». « Nous mettons en avant des milliers d’applications via des classements, des recommandations algorithmiques et des sélections éditoriales effectuées par des experts selon des critères objectifs », a déclaré le créateur de l’iPhone dans un message transmis à l’Agence France-Presse par courriel. Des accusations non étayées L’App Store est, depuis longtemps, vivement critiquée par de nombreuses autorités et entreprises, notamment Epic Games, l’éditeur du jeu vidéo Fortnite. La plateforme est accusée, tout comme le Play Store de Google, d’abuser de sa position dominante pour s’imposer comme un passage obligé pour le téléchargement d’une application et les paiements, en prélevant des commissions importantes sur les dépenses des utilisateurs. Lire aussi | Google perd son appel contre Epic Games et doit réformer son magasin d’applications mobiles Cependant, rien à l’heure actuelle ne vient étayer les accusations portées par Elon Musk à l’encontre d’Apple, comme en témoignent les « notes de communautés » ajoutées au message posté par l’homme d’affaires, mardi. Grâce à cet outil, qui permet d’apporter des précisions ou des corrections à des messages trompeurs ou faux, des internautes font remarquer que certains outils d’IA, comme Deepseek ou Perplexity, ont réussi par le passé à se hisser parmi les applications les plus téléchargées sur l’App Store. Comme le fait remarquer le média spécialisé The Verge, on pourrait par ailleurs considérer que l’anomalie ne réside pas tant dans le classement actuel des applications X et Grok sur l’App Store que dans le fait qu’elles y figurent encore. L’approche très laxiste des deux applications en matière de modération fait qu’elles contreviennent régulièrement aux règles du magasin d’application, note le site spécialisé. Lire aussi | Article réservé à nos abonnés Grok, l’IA d’Elon Musk, encourage à voter Marine Le Pen et salue « l’efficacité » d’Adolf Hitler Croisade d’Elon Musk contre OpenAI Les accusations d’Elon Musk ont en tout cas déclenché une passe d’armes, sur X, entre Elon Musk et Sam Altman, véritable cible de cette nouvelle croisade du milliardaire d’extrême droite. « C’est une affirmation remarquable compte tenu de ce que j’ai entendu dire à propos d’Elon qui manipulerait X pour son propre bénéfice et celui de ses entreprises et pour nuire à ses concurrents ainsi qu’aux personnes qu’il n’apprécie pas », a notamment écrit le second. Sam Altman « ment comme il respire », a renchéri Elon Musk. Newsletter Newsletter Le Monde Newsletter Suivez-nous sur WhatsApp Le dirigeant de Tesla, SpaceX et X, entre autres entreprises, a fait partie de l’équipe de 11 personnes qui a fondé OpenAI en 2015. Mais il a quitté l’entreprise en 2018 et ne cesse de l’attaquer depuis le succès phénoménal de ChatGPT à la fin de 2022, y compris en justice. En retard dans l’IA générative, Apple a lancé en 2024 « Apple Intelligence », une série de fonctionnalités dopées à l’IA, notamment grâce à un accord avec OpenAI. Lire aussi | Article réservé à nos abonnés On a testé Apple Intelligence, les nouveaux outils d’IA déployés sur iOS 18.4 Le Monde avec AFP Réutiliser ce contenu #elon #musk #accuse #apple #favoriser
    Elon Musk accuse Apple de favoriser ChatGPT dans son App Store, au détriment de Grok
    www.lemonde.fr
    Apple se retrouve au milieu du champ de bataille entre Elon Musk, patron de xAI, et Sam Altman, PDG d’OpenAI. L’entreprise à la pomme est en effet accusée par le fondateur de SpaceX de favoritisme envers la maison mère de ChatGPT sur son magasin d’applications, l’App Store. « Apple agit de manière à rendre impossible pour toute entreprise d’IA [intelligence artificielle] autre qu’OpenAI d’atteindre la première place sur l’App Store, ce qui constitue une violation manifeste des règles de concurrence », a ainsi écrit Elon Musk sur son réseau social, X, mardi 13 août. Sa société xAI, qui a développé l’assistant IA Grok, « va immédiatement engager une action en justice », a-t-il ajouté. L’App Store permet de télécharger des applications sur les appareils d’Apple, comme ses iPhone. Cette plateforme est cruciale pour les éditeurs qui espèrent être choisis par les consommateurs. Apple, qui donne peu d’informations sur ses critères de sélection concernant les applications mises en avant, a assuré, jeudi 14 août, que sa plateforme de téléchargement était « équitable et exempte de tout parti pris ». « Nous mettons en avant des milliers d’applications via des classements, des recommandations algorithmiques et des sélections éditoriales effectuées par des experts selon des critères objectifs », a déclaré le créateur de l’iPhone dans un message transmis à l’Agence France-Presse par courriel. Des accusations non étayées L’App Store est, depuis longtemps, vivement critiquée par de nombreuses autorités et entreprises, notamment Epic Games, l’éditeur du jeu vidéo Fortnite. La plateforme est accusée, tout comme le Play Store de Google, d’abuser de sa position dominante pour s’imposer comme un passage obligé pour le téléchargement d’une application et les paiements, en prélevant des commissions importantes sur les dépenses des utilisateurs. Lire aussi | Google perd son appel contre Epic Games et doit réformer son magasin d’applications mobiles Cependant, rien à l’heure actuelle ne vient étayer les accusations portées par Elon Musk à l’encontre d’Apple, comme en témoignent les « notes de communautés » ajoutées au message posté par l’homme d’affaires, mardi. Grâce à cet outil, qui permet d’apporter des précisions ou des corrections à des messages trompeurs ou faux, des internautes font remarquer que certains outils d’IA, comme Deepseek ou Perplexity, ont réussi par le passé à se hisser parmi les applications les plus téléchargées sur l’App Store. Comme le fait remarquer le média spécialisé The Verge, on pourrait par ailleurs considérer que l’anomalie ne réside pas tant dans le classement actuel des applications X et Grok sur l’App Store que dans le fait qu’elles y figurent encore. L’approche très laxiste des deux applications en matière de modération fait qu’elles contreviennent régulièrement aux règles du magasin d’application, note le site spécialisé. Lire aussi | Article réservé à nos abonnés Grok, l’IA d’Elon Musk, encourage à voter Marine Le Pen et salue « l’efficacité » d’Adolf Hitler Croisade d’Elon Musk contre OpenAI Les accusations d’Elon Musk ont en tout cas déclenché une passe d’armes, sur X, entre Elon Musk et Sam Altman, véritable cible de cette nouvelle croisade du milliardaire d’extrême droite. « C’est une affirmation remarquable compte tenu de ce que j’ai entendu dire à propos d’Elon qui manipulerait X pour son propre bénéfice et celui de ses entreprises et pour nuire à ses concurrents ainsi qu’aux personnes qu’il n’apprécie pas », a notamment écrit le second. Sam Altman « ment comme il respire », a renchéri Elon Musk. Newsletter Newsletter Le Monde Newsletter Suivez-nous sur WhatsApp Le dirigeant de Tesla, SpaceX et X, entre autres entreprises, a fait partie de l’équipe de 11 personnes qui a fondé OpenAI en 2015. Mais il a quitté l’entreprise en 2018 et ne cesse de l’attaquer depuis le succès phénoménal de ChatGPT à la fin de 2022, y compris en justice. En retard dans l’IA générative, Apple a lancé en 2024 « Apple Intelligence », une série de fonctionnalités dopées à l’IA, notamment grâce à un accord avec OpenAI. Lire aussi | Article réservé à nos abonnés On a testé Apple Intelligence, les nouveaux outils d’IA déployés sur iOS 18.4 Le Monde avec AFP Réutiliser ce contenu
    2 Comments ·0 Shares
ollo https://www.ollo.ws