• L’ONU se dote d’un groupe d’experts scientifiques sur l’intelligence artificielle

    Le stand Amazon Web Services à la Hannover Messe, l’une des plus grandes foires industrielles du monde, à Hanovre, en Allemagne, le 30 mars 2025. FABIAN BIMMER / REUTERS L’Assemblée générale de l’Organisation des Nations uniesa créé, mardi 26 août, un groupe d’experts scientifiques sur l’intelligence artificiellequi sera chargé d’aider la communauté internationale à prendre des décisions informées sur ce sujet sensible, comme le fait le Groupe d’experts intergouvernemental sur l’évolution du climat. S’inquiétant du développement rapide de technologies révolutionnaires qui pourraient menacer la démocratie et les droits humains, les Etats membres de l’ONU s’étaient engagés, en septembre 2024, dans le « Pacte pour l’avenir », à mettre en place un tel groupe d’experts pour éclairer le dialogue international entre gouvernements et autres acteurs du secteur. Dans une résolution adoptée mardi, l’Assemblée générale a formellement créé ce « Groupe scientifique international indépendant de l’intelligence artificielle » qui devra fournir des « évaluations scientifiques fondées sur des données probantes dans lesquelles seront synthétisées et analysées les études existantes sur les promesses, les risques et les répercussions de l’intelligence artificielle ». Son rapport de synthèse annuel « servira à éclairer la prise de décisions, sans toutefois être prescriptif », précise le texte. Lire aussi | Article réservé à nos abonnés De Meta AI à ChatGPT, le jeu dangereux d’une personnalisation toujours plus poussée des IA « Pont crucial » Mandaté par l’Assemblée, le secrétaire général de l’ONU, Antonio Guterres, qui a salué la création d’un « pont crucial entre la recherche de pointe sur l’IA et l’élaboration des politiques », va désormais lancer un appel à candidatures pour identifier les quarante futurs membres du groupe, qui siégeront pour un mandat de trois ans. « L’intelligence artificielle se développe à un rythme et à une échelle qui affectent tous les pays », a commenté la représentante permanente du Costa Rica auprès de l’ONU, Maritza Chan Valverde, qui a supervisé les négociations avec son homologue espagnol. « Avec cette résolution, les Nations unies réaffirment leur rôle central pour garantir que l’IA sera au service de l’humanité », a-t-elle insisté. « En fournissant des évaluations scientifiques rigoureuses et indépendantes,aidera la communauté internationale à anticiper les défis émergents et à prendre des décisions informées sur comment régir cette technologie transformatrice », a commenté le porte-parole du secrétaire général, Stéphane Dujarric. Le Monde avec AFP
    #lonu #dote #dun #groupe #dexperts
    L’ONU se dote d’un groupe d’experts scientifiques sur l’intelligence artificielle
    Le stand Amazon Web Services à la Hannover Messe, l’une des plus grandes foires industrielles du monde, à Hanovre, en Allemagne, le 30 mars 2025. FABIAN BIMMER / REUTERS L’Assemblée générale de l’Organisation des Nations uniesa créé, mardi 26 août, un groupe d’experts scientifiques sur l’intelligence artificiellequi sera chargé d’aider la communauté internationale à prendre des décisions informées sur ce sujet sensible, comme le fait le Groupe d’experts intergouvernemental sur l’évolution du climat. S’inquiétant du développement rapide de technologies révolutionnaires qui pourraient menacer la démocratie et les droits humains, les Etats membres de l’ONU s’étaient engagés, en septembre 2024, dans le « Pacte pour l’avenir », à mettre en place un tel groupe d’experts pour éclairer le dialogue international entre gouvernements et autres acteurs du secteur. Dans une résolution adoptée mardi, l’Assemblée générale a formellement créé ce « Groupe scientifique international indépendant de l’intelligence artificielle » qui devra fournir des « évaluations scientifiques fondées sur des données probantes dans lesquelles seront synthétisées et analysées les études existantes sur les promesses, les risques et les répercussions de l’intelligence artificielle ». Son rapport de synthèse annuel « servira à éclairer la prise de décisions, sans toutefois être prescriptif », précise le texte. Lire aussi | Article réservé à nos abonnés De Meta AI à ChatGPT, le jeu dangereux d’une personnalisation toujours plus poussée des IA « Pont crucial » Mandaté par l’Assemblée, le secrétaire général de l’ONU, Antonio Guterres, qui a salué la création d’un « pont crucial entre la recherche de pointe sur l’IA et l’élaboration des politiques », va désormais lancer un appel à candidatures pour identifier les quarante futurs membres du groupe, qui siégeront pour un mandat de trois ans. « L’intelligence artificielle se développe à un rythme et à une échelle qui affectent tous les pays », a commenté la représentante permanente du Costa Rica auprès de l’ONU, Maritza Chan Valverde, qui a supervisé les négociations avec son homologue espagnol. « Avec cette résolution, les Nations unies réaffirment leur rôle central pour garantir que l’IA sera au service de l’humanité », a-t-elle insisté. « En fournissant des évaluations scientifiques rigoureuses et indépendantes,aidera la communauté internationale à anticiper les défis émergents et à prendre des décisions informées sur comment régir cette technologie transformatrice », a commenté le porte-parole du secrétaire général, Stéphane Dujarric. Le Monde avec AFP #lonu #dote #dun #groupe #dexperts
    L’ONU se dote d’un groupe d’experts scientifiques sur l’intelligence artificielle
    www.lemonde.fr
    Le stand Amazon Web Services à la Hannover Messe, l’une des plus grandes foires industrielles du monde, à Hanovre, en Allemagne, le 30 mars 2025. FABIAN BIMMER / REUTERS L’Assemblée générale de l’Organisation des Nations unies (ONU) a créé, mardi 26 août, un groupe d’experts scientifiques sur l’intelligence artificielle (IA) qui sera chargé d’aider la communauté internationale à prendre des décisions informées sur ce sujet sensible, comme le fait le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC). S’inquiétant du développement rapide de technologies révolutionnaires qui pourraient menacer la démocratie et les droits humains, les Etats membres de l’ONU s’étaient engagés, en septembre 2024, dans le « Pacte pour l’avenir », à mettre en place un tel groupe d’experts pour éclairer le dialogue international entre gouvernements et autres acteurs du secteur. Dans une résolution adoptée mardi, l’Assemblée générale a formellement créé ce « Groupe scientifique international indépendant de l’intelligence artificielle » qui devra fournir des « évaluations scientifiques fondées sur des données probantes dans lesquelles seront synthétisées et analysées les études existantes sur les promesses, les risques et les répercussions de l’intelligence artificielle ». Son rapport de synthèse annuel « servira à éclairer la prise de décisions, sans toutefois être prescriptif », précise le texte. Lire aussi | Article réservé à nos abonnés De Meta AI à ChatGPT, le jeu dangereux d’une personnalisation toujours plus poussée des IA « Pont crucial » Mandaté par l’Assemblée, le secrétaire général de l’ONU, Antonio Guterres, qui a salué la création d’un « pont crucial entre la recherche de pointe sur l’IA et l’élaboration des politiques », va désormais lancer un appel à candidatures pour identifier les quarante futurs membres du groupe, qui siégeront pour un mandat de trois ans. « L’intelligence artificielle se développe à un rythme et à une échelle qui affectent tous les pays », a commenté la représentante permanente du Costa Rica auprès de l’ONU, Maritza Chan Valverde, qui a supervisé les négociations avec son homologue espagnol. « Avec cette résolution, les Nations unies réaffirment leur rôle central pour garantir que l’IA sera au service de l’humanité », a-t-elle insisté. « En fournissant des évaluations scientifiques rigoureuses et indépendantes, [le groupe] aidera la communauté internationale à anticiper les défis émergents et à prendre des décisions informées sur comment régir cette technologie transformatrice », a commenté le porte-parole du secrétaire général, Stéphane Dujarric. Le Monde avec AFP
    Like
    Love
    Wow
    Sad
    Angry
    762
    · 2 Comments ·0 Shares
  • Sébastien Crozier, syndicaliste : « Standardiser la voix, c’est nier qu’une intonation est souvent une histoire »

    Sous prétexte d’amélioration, une vague d’outils d’analyse vocale déferle dans les entreprises. L’intelligence artificiellepromet plus d’objectivité et de performance. En réalité, c’est un travail placé sous surveillance émotionnelle. « Votre appel peut être enregistré à des fins de formation » : cette phrase familière camoufle désormais bien plus qu’un simple enregistrement. Derrière la collecte, il y a l’analyse ; derrière l’analyse, une interprétation ; et derrière l’interprétation, une intention. Le speech analytics, qui détecte stress, fatigue, doute ou enthousiasme, sort des centres d’appels pour pénétrer nos services internes, nos interactions professionnelles, nos entretiens d’évaluation… Les outils attribuent des scores, déclenchent des alertes. Demain, ils pourraient recommander promotions ou sanctions. La voix devient une simple donnée biométrique. Pourtant, elle n’est pas qu’un signal. Elle vibre, hésite, tremble, reflète nos journées, nos doutes, nos émotions. La standardiser, c’est nier qu’une intonation est souvent une histoire. Jugée « inappropriée » ? Alerte. Rythme jugé trop lent ? Risque de désengagement. Ton jugé trop vif ? Possible tension. Les autorités françaises et européennes l’ont compris : la voix est une donnée hautement sensible, permettant d’identifier une personne, mais aussi d’inférer son état émotionnel ou psychologique. Son traitement est interdit, sauf consentement libre et éclairé, ainsi que le prévoit le règlement général sur la protection des données– bientôt renforcé par l’IA Act. Mais en entreprise, que vaut ce consentement « libre » ? Peut-on refuser un outil imposé par la hiérarchie, comprendre ce que l’algorithme « a entendu » ou même contester ses conclusions ? Le consentement n’est pas une simple case à cocher, mais un droit fondamental. Lire aussi | Article réservé à nos abonnés L’entreprise américaine Palantir suspectée de créer une base de données géante sur les citoyens De nombreuses études confirment les risques : stress accru des salariés sous écoute permanente, autocensure, affaiblissement des échanges spontanés, rupture de confiance, déshumanisation du travail. S’y ajoutent des biais matériels ou algorithmiques, comme la compression numérique, le filtrage des fréquences, l’altération du timbre par les réseaux téléphoniques ou par VoIP, qui pénalisant certains accents, voix féminines ou styles culturels. Il vous reste 50.04% de cet article à lire. La suite est réservée aux abonnés.
    #sébastien #crozier #syndicaliste #standardiser #voix
    Sébastien Crozier, syndicaliste : « Standardiser la voix, c’est nier qu’une intonation est souvent une histoire »
    Sous prétexte d’amélioration, une vague d’outils d’analyse vocale déferle dans les entreprises. L’intelligence artificiellepromet plus d’objectivité et de performance. En réalité, c’est un travail placé sous surveillance émotionnelle. « Votre appel peut être enregistré à des fins de formation » : cette phrase familière camoufle désormais bien plus qu’un simple enregistrement. Derrière la collecte, il y a l’analyse ; derrière l’analyse, une interprétation ; et derrière l’interprétation, une intention. Le speech analytics, qui détecte stress, fatigue, doute ou enthousiasme, sort des centres d’appels pour pénétrer nos services internes, nos interactions professionnelles, nos entretiens d’évaluation… Les outils attribuent des scores, déclenchent des alertes. Demain, ils pourraient recommander promotions ou sanctions. La voix devient une simple donnée biométrique. Pourtant, elle n’est pas qu’un signal. Elle vibre, hésite, tremble, reflète nos journées, nos doutes, nos émotions. La standardiser, c’est nier qu’une intonation est souvent une histoire. Jugée « inappropriée » ? Alerte. Rythme jugé trop lent ? Risque de désengagement. Ton jugé trop vif ? Possible tension. Les autorités françaises et européennes l’ont compris : la voix est une donnée hautement sensible, permettant d’identifier une personne, mais aussi d’inférer son état émotionnel ou psychologique. Son traitement est interdit, sauf consentement libre et éclairé, ainsi que le prévoit le règlement général sur la protection des données– bientôt renforcé par l’IA Act. Mais en entreprise, que vaut ce consentement « libre » ? Peut-on refuser un outil imposé par la hiérarchie, comprendre ce que l’algorithme « a entendu » ou même contester ses conclusions ? Le consentement n’est pas une simple case à cocher, mais un droit fondamental. Lire aussi | Article réservé à nos abonnés L’entreprise américaine Palantir suspectée de créer une base de données géante sur les citoyens De nombreuses études confirment les risques : stress accru des salariés sous écoute permanente, autocensure, affaiblissement des échanges spontanés, rupture de confiance, déshumanisation du travail. S’y ajoutent des biais matériels ou algorithmiques, comme la compression numérique, le filtrage des fréquences, l’altération du timbre par les réseaux téléphoniques ou par VoIP, qui pénalisant certains accents, voix féminines ou styles culturels. Il vous reste 50.04% de cet article à lire. La suite est réservée aux abonnés. #sébastien #crozier #syndicaliste #standardiser #voix
    Sébastien Crozier, syndicaliste : « Standardiser la voix, c’est nier qu’une intonation est souvent une histoire »
    www.lemonde.fr
    Sous prétexte d’amélioration, une vague d’outils d’analyse vocale déferle dans les entreprises. L’intelligence artificielle (IA) promet plus d’objectivité et de performance. En réalité, c’est un travail placé sous surveillance émotionnelle. « Votre appel peut être enregistré à des fins de formation » : cette phrase familière camoufle désormais bien plus qu’un simple enregistrement. Derrière la collecte, il y a l’analyse ; derrière l’analyse, une interprétation ; et derrière l’interprétation, une intention. Le speech analytics, qui détecte stress, fatigue, doute ou enthousiasme, sort des centres d’appels pour pénétrer nos services internes, nos interactions professionnelles, nos entretiens d’évaluation… Les outils attribuent des scores, déclenchent des alertes. Demain, ils pourraient recommander promotions ou sanctions. La voix devient une simple donnée biométrique. Pourtant, elle n’est pas qu’un signal. Elle vibre, hésite, tremble, reflète nos journées, nos doutes, nos émotions. La standardiser, c’est nier qu’une intonation est souvent une histoire. Jugée « inappropriée » ? Alerte. Rythme jugé trop lent ? Risque de désengagement. Ton jugé trop vif ? Possible tension. Les autorités françaises et européennes l’ont compris : la voix est une donnée hautement sensible, permettant d’identifier une personne, mais aussi d’inférer son état émotionnel ou psychologique. Son traitement est interdit, sauf consentement libre et éclairé, ainsi que le prévoit le règlement général sur la protection des données (RGPD) – bientôt renforcé par l’IA Act. Mais en entreprise, que vaut ce consentement « libre » ? Peut-on refuser un outil imposé par la hiérarchie, comprendre ce que l’algorithme « a entendu » ou même contester ses conclusions ? Le consentement n’est pas une simple case à cocher, mais un droit fondamental. Lire aussi | Article réservé à nos abonnés L’entreprise américaine Palantir suspectée de créer une base de données géante sur les citoyens De nombreuses études confirment les risques : stress accru des salariés sous écoute permanente, autocensure, affaiblissement des échanges spontanés, rupture de confiance, déshumanisation du travail. S’y ajoutent des biais matériels ou algorithmiques, comme la compression numérique, le filtrage des fréquences, l’altération du timbre par les réseaux téléphoniques ou par VoIP [« voix sur IP », une technique qui permet de transmettre des appels sur Internet], qui pénalisant certains accents, voix féminines ou styles culturels. Il vous reste 50.04% de cet article à lire. La suite est réservée aux abonnés.
    Like
    Love
    Wow
    Sad
    Angry
    444
    · 2 Comments ·0 Shares
ollo https://www.ollo.ws