• L’entreprise américaine Palantir suspectée de créer une base de données géante sur les citoyens

    L’entreprise américaine Palantir suspectée de créer une base de données géante sur les citoyens Le champion américain de l’analyse des données est mis en cause par le « New York Times » et des sénateurs démocrates pour des pratiques illégales. Mais ce genre de dispositifs n’est pas l’apanage des Etats-Unis. Article réservé aux abonnés Alex Karp, patron de Palantir Technologies, lors d’une table ronde intitulée « Pouvoir, finalité et le nouveau siècle américain » au Hill and Valley Forum, à Washington, le 30 avril 2025. KEVIN DIETSCH/GETTY IMAGES VIA AFP « Un cauchemar de surveillance. » C’est le climat dystopique qu’encouragerait l’entreprise Palantir, selon des sénateurs américains démocrates. Dans une lettre adressée le 18 juin à Alex Karp, l’impétueux patron de Palantir, ces derniers réclament des comptes au géant américain de l’analyse de données sur la teneur des contrats qu’il a signés avec l’administration Trump. Lire aussi l’enquête | Article réservé à nos abonnés La discrète montée en puissance de la reconnaissance faciale dans le monde D’après l’enquête du New York Times, parue le 30 mai, le gouvernement aurait confié à la multinationale la mission de créer une base fusionnant un grand nombre d’informations sur la vie privée des citoyens américains, à travers un produit nommé « Foundry » qui analyse les données d’administrations fédérales. Des pratiques contraires à la législation des Etats-Unis que Palantir a niées. Mais les élus sont revenus à la charge en dénonçant notamment le contrat de la société avec l’Internal Revenue Service, source des données sensibles de tous les foyers imposables américains. Plus récemment, Palantir a également signé un contrat de 30 millions de dollarsavec l’agence de police douanière et de contrôle des frontièrespour rationaliser, selon les autorités, l’« identification » des étrangers et leur « éloignement » des Etats-Unis, dans le but de rendre la « logistique d’expulsion » plus efficace. Il vous reste 59.16% de cet article à lire. La suite est réservée aux abonnés.
    #lentreprise #américaine #palantir #suspectée #créer
    L’entreprise américaine Palantir suspectée de créer une base de données géante sur les citoyens
    L’entreprise américaine Palantir suspectée de créer une base de données géante sur les citoyens Le champion américain de l’analyse des données est mis en cause par le « New York Times » et des sénateurs démocrates pour des pratiques illégales. Mais ce genre de dispositifs n’est pas l’apanage des Etats-Unis. Article réservé aux abonnés Alex Karp, patron de Palantir Technologies, lors d’une table ronde intitulée « Pouvoir, finalité et le nouveau siècle américain » au Hill and Valley Forum, à Washington, le 30 avril 2025. KEVIN DIETSCH/GETTY IMAGES VIA AFP « Un cauchemar de surveillance. » C’est le climat dystopique qu’encouragerait l’entreprise Palantir, selon des sénateurs américains démocrates. Dans une lettre adressée le 18 juin à Alex Karp, l’impétueux patron de Palantir, ces derniers réclament des comptes au géant américain de l’analyse de données sur la teneur des contrats qu’il a signés avec l’administration Trump. Lire aussi l’enquête | Article réservé à nos abonnés La discrète montée en puissance de la reconnaissance faciale dans le monde D’après l’enquête du New York Times, parue le 30 mai, le gouvernement aurait confié à la multinationale la mission de créer une base fusionnant un grand nombre d’informations sur la vie privée des citoyens américains, à travers un produit nommé « Foundry » qui analyse les données d’administrations fédérales. Des pratiques contraires à la législation des Etats-Unis que Palantir a niées. Mais les élus sont revenus à la charge en dénonçant notamment le contrat de la société avec l’Internal Revenue Service, source des données sensibles de tous les foyers imposables américains. Plus récemment, Palantir a également signé un contrat de 30 millions de dollarsavec l’agence de police douanière et de contrôle des frontièrespour rationaliser, selon les autorités, l’« identification » des étrangers et leur « éloignement » des Etats-Unis, dans le but de rendre la « logistique d’expulsion » plus efficace. Il vous reste 59.16% de cet article à lire. La suite est réservée aux abonnés. #lentreprise #américaine #palantir #suspectée #créer
    L’entreprise américaine Palantir suspectée de créer une base de données géante sur les citoyens
    www.lemonde.fr
    L’entreprise américaine Palantir suspectée de créer une base de données géante sur les citoyens Le champion américain de l’analyse des données est mis en cause par le « New York Times » et des sénateurs démocrates pour des pratiques illégales. Mais ce genre de dispositifs n’est pas l’apanage des Etats-Unis. Article réservé aux abonnés Alex Karp, patron de Palantir Technologies, lors d’une table ronde intitulée « Pouvoir, finalité et le nouveau siècle américain » au Hill and Valley Forum, à Washington, le 30 avril 2025. KEVIN DIETSCH/GETTY IMAGES VIA AFP « Un cauchemar de surveillance. » C’est le climat dystopique qu’encouragerait l’entreprise Palantir, selon des sénateurs américains démocrates. Dans une lettre adressée le 18 juin à Alex Karp, l’impétueux patron de Palantir, ces derniers réclament des comptes au géant américain de l’analyse de données sur la teneur des contrats qu’il a signés avec l’administration Trump. Lire aussi l’enquête | Article réservé à nos abonnés La discrète montée en puissance de la reconnaissance faciale dans le monde D’après l’enquête du New York Times, parue le 30 mai, le gouvernement aurait confié à la multinationale la mission de créer une base fusionnant un grand nombre d’informations sur la vie privée des citoyens américains, à travers un produit nommé « Foundry » qui analyse les données d’administrations fédérales. Des pratiques contraires à la législation des Etats-Unis que Palantir a niées. Mais les élus sont revenus à la charge en dénonçant notamment le contrat de la société avec l’Internal Revenue Service, source des données sensibles de tous les foyers imposables américains. Plus récemment, Palantir a également signé un contrat de 30 millions de dollars (25,6 millions d’euros) avec l’agence de police douanière et de contrôle des frontières (ICE) pour rationaliser, selon les autorités, l’« identification » des étrangers et leur « éloignement » des Etats-Unis, dans le but de rendre la « logistique d’expulsion » plus efficace. Il vous reste 59.16% de cet article à lire. La suite est réservée aux abonnés.
    Like
    Love
    Wow
    Sad
    Angry
    413
    · 2 التعليقات ·0 المشاركات
  • Sébastien Crozier, syndicaliste : « Standardiser la voix, c’est nier qu’une intonation est souvent une histoire »

    Sous prétexte d’amélioration, une vague d’outils d’analyse vocale déferle dans les entreprises. L’intelligence artificiellepromet plus d’objectivité et de performance. En réalité, c’est un travail placé sous surveillance émotionnelle. « Votre appel peut être enregistré à des fins de formation » : cette phrase familière camoufle désormais bien plus qu’un simple enregistrement. Derrière la collecte, il y a l’analyse ; derrière l’analyse, une interprétation ; et derrière l’interprétation, une intention. Le speech analytics, qui détecte stress, fatigue, doute ou enthousiasme, sort des centres d’appels pour pénétrer nos services internes, nos interactions professionnelles, nos entretiens d’évaluation… Les outils attribuent des scores, déclenchent des alertes. Demain, ils pourraient recommander promotions ou sanctions. La voix devient une simple donnée biométrique. Pourtant, elle n’est pas qu’un signal. Elle vibre, hésite, tremble, reflète nos journées, nos doutes, nos émotions. La standardiser, c’est nier qu’une intonation est souvent une histoire. Jugée « inappropriée » ? Alerte. Rythme jugé trop lent ? Risque de désengagement. Ton jugé trop vif ? Possible tension. Les autorités françaises et européennes l’ont compris : la voix est une donnée hautement sensible, permettant d’identifier une personne, mais aussi d’inférer son état émotionnel ou psychologique. Son traitement est interdit, sauf consentement libre et éclairé, ainsi que le prévoit le règlement général sur la protection des données– bientôt renforcé par l’IA Act. Mais en entreprise, que vaut ce consentement « libre » ? Peut-on refuser un outil imposé par la hiérarchie, comprendre ce que l’algorithme « a entendu » ou même contester ses conclusions ? Le consentement n’est pas une simple case à cocher, mais un droit fondamental. Lire aussi | Article réservé à nos abonnés L’entreprise américaine Palantir suspectée de créer une base de données géante sur les citoyens De nombreuses études confirment les risques : stress accru des salariés sous écoute permanente, autocensure, affaiblissement des échanges spontanés, rupture de confiance, déshumanisation du travail. S’y ajoutent des biais matériels ou algorithmiques, comme la compression numérique, le filtrage des fréquences, l’altération du timbre par les réseaux téléphoniques ou par VoIP, qui pénalisant certains accents, voix féminines ou styles culturels. Il vous reste 50.04% de cet article à lire. La suite est réservée aux abonnés.
    #sébastien #crozier #syndicaliste #standardiser #voix
    Sébastien Crozier, syndicaliste : « Standardiser la voix, c’est nier qu’une intonation est souvent une histoire »
    Sous prétexte d’amélioration, une vague d’outils d’analyse vocale déferle dans les entreprises. L’intelligence artificiellepromet plus d’objectivité et de performance. En réalité, c’est un travail placé sous surveillance émotionnelle. « Votre appel peut être enregistré à des fins de formation » : cette phrase familière camoufle désormais bien plus qu’un simple enregistrement. Derrière la collecte, il y a l’analyse ; derrière l’analyse, une interprétation ; et derrière l’interprétation, une intention. Le speech analytics, qui détecte stress, fatigue, doute ou enthousiasme, sort des centres d’appels pour pénétrer nos services internes, nos interactions professionnelles, nos entretiens d’évaluation… Les outils attribuent des scores, déclenchent des alertes. Demain, ils pourraient recommander promotions ou sanctions. La voix devient une simple donnée biométrique. Pourtant, elle n’est pas qu’un signal. Elle vibre, hésite, tremble, reflète nos journées, nos doutes, nos émotions. La standardiser, c’est nier qu’une intonation est souvent une histoire. Jugée « inappropriée » ? Alerte. Rythme jugé trop lent ? Risque de désengagement. Ton jugé trop vif ? Possible tension. Les autorités françaises et européennes l’ont compris : la voix est une donnée hautement sensible, permettant d’identifier une personne, mais aussi d’inférer son état émotionnel ou psychologique. Son traitement est interdit, sauf consentement libre et éclairé, ainsi que le prévoit le règlement général sur la protection des données– bientôt renforcé par l’IA Act. Mais en entreprise, que vaut ce consentement « libre » ? Peut-on refuser un outil imposé par la hiérarchie, comprendre ce que l’algorithme « a entendu » ou même contester ses conclusions ? Le consentement n’est pas une simple case à cocher, mais un droit fondamental. Lire aussi | Article réservé à nos abonnés L’entreprise américaine Palantir suspectée de créer une base de données géante sur les citoyens De nombreuses études confirment les risques : stress accru des salariés sous écoute permanente, autocensure, affaiblissement des échanges spontanés, rupture de confiance, déshumanisation du travail. S’y ajoutent des biais matériels ou algorithmiques, comme la compression numérique, le filtrage des fréquences, l’altération du timbre par les réseaux téléphoniques ou par VoIP, qui pénalisant certains accents, voix féminines ou styles culturels. Il vous reste 50.04% de cet article à lire. La suite est réservée aux abonnés. #sébastien #crozier #syndicaliste #standardiser #voix
    Sébastien Crozier, syndicaliste : « Standardiser la voix, c’est nier qu’une intonation est souvent une histoire »
    www.lemonde.fr
    Sous prétexte d’amélioration, une vague d’outils d’analyse vocale déferle dans les entreprises. L’intelligence artificielle (IA) promet plus d’objectivité et de performance. En réalité, c’est un travail placé sous surveillance émotionnelle. « Votre appel peut être enregistré à des fins de formation » : cette phrase familière camoufle désormais bien plus qu’un simple enregistrement. Derrière la collecte, il y a l’analyse ; derrière l’analyse, une interprétation ; et derrière l’interprétation, une intention. Le speech analytics, qui détecte stress, fatigue, doute ou enthousiasme, sort des centres d’appels pour pénétrer nos services internes, nos interactions professionnelles, nos entretiens d’évaluation… Les outils attribuent des scores, déclenchent des alertes. Demain, ils pourraient recommander promotions ou sanctions. La voix devient une simple donnée biométrique. Pourtant, elle n’est pas qu’un signal. Elle vibre, hésite, tremble, reflète nos journées, nos doutes, nos émotions. La standardiser, c’est nier qu’une intonation est souvent une histoire. Jugée « inappropriée » ? Alerte. Rythme jugé trop lent ? Risque de désengagement. Ton jugé trop vif ? Possible tension. Les autorités françaises et européennes l’ont compris : la voix est une donnée hautement sensible, permettant d’identifier une personne, mais aussi d’inférer son état émotionnel ou psychologique. Son traitement est interdit, sauf consentement libre et éclairé, ainsi que le prévoit le règlement général sur la protection des données (RGPD) – bientôt renforcé par l’IA Act. Mais en entreprise, que vaut ce consentement « libre » ? Peut-on refuser un outil imposé par la hiérarchie, comprendre ce que l’algorithme « a entendu » ou même contester ses conclusions ? Le consentement n’est pas une simple case à cocher, mais un droit fondamental. Lire aussi | Article réservé à nos abonnés L’entreprise américaine Palantir suspectée de créer une base de données géante sur les citoyens De nombreuses études confirment les risques : stress accru des salariés sous écoute permanente, autocensure, affaiblissement des échanges spontanés, rupture de confiance, déshumanisation du travail. S’y ajoutent des biais matériels ou algorithmiques, comme la compression numérique, le filtrage des fréquences, l’altération du timbre par les réseaux téléphoniques ou par VoIP [« voix sur IP », une technique qui permet de transmettre des appels sur Internet], qui pénalisant certains accents, voix féminines ou styles culturels. Il vous reste 50.04% de cet article à lire. La suite est réservée aux abonnés.
    Like
    Love
    Wow
    Sad
    Angry
    444
    · 2 التعليقات ·0 المشاركات
  • يا جماعة، وش رايكم في اللي صاير في الكنائس؟

    اليوم راح نحكي على موضوع صادم شوية: كنائس في أمريكا تستعمل الداتا والذكاء الاصطناعي كوسيلة للمراقبة. تخيلوا معايا، الأحد الصباح، الناس يدخلوا للكنيسة، وما يعرفوش بلي عايدين في وسط نظام مراقبة بيومتري. الكاميرات تلتقط الوجوه بلا ما يحسوا، وترسل المعلومات لذكاء صناعي يعالجها!

    هذا الموضوع يخليني نفكر في الخصوصية والتكنولوجيا، خاصة في الأماكن اللي المفروض تكون فيها الأمان والراحة. واش راكم تشوفوا في هالشي؟

    تابعوا المقال على الرابط وتفكروا في كيفاش التكنولوجيا تأثر على حياتنا اليومية.

    https://www.technologyreview.com/2025/08/19/1121389/ai-data-church-surveillance-america/

    #الخصوصية #تكنولوجيا #AI #كنائس #مراقبة
    يا جماعة، وش رايكم في اللي صاير في الكنائس؟ 😲 اليوم راح نحكي على موضوع صادم شوية: كنائس في أمريكا تستعمل الداتا والذكاء الاصطناعي كوسيلة للمراقبة. تخيلوا معايا، الأحد الصباح، الناس يدخلوا للكنيسة، وما يعرفوش بلي عايدين في وسط نظام مراقبة بيومتري. الكاميرات تلتقط الوجوه بلا ما يحسوا، وترسل المعلومات لذكاء صناعي يعالجها! 🤖 هذا الموضوع يخليني نفكر في الخصوصية والتكنولوجيا، خاصة في الأماكن اللي المفروض تكون فيها الأمان والراحة. واش راكم تشوفوا في هالشي؟ تابعوا المقال على الرابط وتفكروا في كيفاش التكنولوجيا تأثر على حياتنا اليومية. https://www.technologyreview.com/2025/08/19/1121389/ai-data-church-surveillance-america/ #الخصوصية #تكنولوجيا #AI #كنائس #مراقبة
    www.technologyreview.com
    On a Sunday morning in a Midwestern megachurch, worshippers step through sliding glass doors into a bustling lobby—unaware they’ve just passed through a gauntlet of biometric surveillance. High-speed cameras snap multiple face “probes” per second, is
    1 التعليقات ·0 المشاركات
  • يا جماعة، كيما كنتو تشوفو، التكنولوجيا راهي تتقدّم بسرعة، لكن شكون يفكر في الأضرار اللي قاعد تصير بسبب المراقبة من طرف الدول؟ في المقال "See Me like a State"، يتحدث الكاتب على كيفاش التغطيات الإعلامية على التكنولوجيا الجديدة تخلي الناس ينسوا الأبعاد الحقيقية للمشاكل الناتجة عن الدولة المراقبة اللي راهي ف الصين.

    شخصيًا، حبيت نشارك معاكم أنو المراقبة موش حاجة جديدة، لكن صح، لازمنا نكونو واعيين بالتأثيرات اللي تقدر تصير علينا وعلى حرياتنا. ديما نخمم في كيفاش التكنولوجيا ممكن تحمي الناس أو تزيد من معاناتهم.

    فكروا في هاد الأمور، وخلونا نكونو واعيين أكثر بالواقع اللي قاعد يحيط بينا.

    https://www.publicbooks.org/see-me-like-a-state/

    #مراقبة #تكنولوجيا #حرية #DroitsHumains #Surveillance
    🌐 يا جماعة، كيما كنتو تشوفو، التكنولوجيا راهي تتقدّم بسرعة، لكن شكون يفكر في الأضرار اللي قاعد تصير بسبب المراقبة من طرف الدول؟ في المقال "See Me like a State"، يتحدث الكاتب على كيفاش التغطيات الإعلامية على التكنولوجيا الجديدة تخلي الناس ينسوا الأبعاد الحقيقية للمشاكل الناتجة عن الدولة المراقبة اللي راهي ف الصين. شخصيًا، حبيت نشارك معاكم أنو المراقبة موش حاجة جديدة، لكن صح، لازمنا نكونو واعيين بالتأثيرات اللي تقدر تصير علينا وعلى حرياتنا. ديما نخمم في كيفاش التكنولوجيا ممكن تحمي الناس أو تزيد من معاناتهم. فكروا في هاد الأمور، وخلونا نكونو واعيين أكثر بالواقع اللي قاعد يحيط بينا. https://www.publicbooks.org/see-me-like-a-state/ #مراقبة #تكنولوجيا #حرية #DroitsHumains #Surveillance
    www.publicbooks.org
    As stories about flashy new technologies eclipse more measured coverage, it becomes easy for foreign audiences, particularly those in America, to lose track of the actual harms inflicted by China’s surveillance state. The post See Me like a State ap
    1 التعليقات ·0 المشاركات
ollo https://www.ollo.ws