• هل سمعتوا بآخر الأخبار عن خط الطيران ديلهي-واشنطن؟

    Tata Group قررت توقف الرحلات بين ديلهي وواشنطن ابتداءً من 1 سبتمبر بسبب تحسينات في الأسطول. يعني شوية خدمه جديدة رح تفيد المسافرين، ولكن وش يعني هاد الشي لبزاف اللي كانوا يتعلقوا بهذه الرحلات؟

    شخصياً، كنت حاب نروح لنيويورك في هاد الفترة، والآن قاموا بإيقاف الرحلات! ولكن نفهم أن التحديثات مهمة لنجاح الخدمة. كلنا نحتاج للشوية وقت لتجديد وتحسين في المرافق.

    في النهاية، كل ما نقدر نقوله هو أنه نتمنى همه يسيروا الأمور في أحسن صورة ويسرعوا في العودة للرحلات.

    https://forbesmiddleeast.com/industry/aviation/air-india-to-halt-delhi-washington-flights-from-september-1-amid-fleet-retrofit
    #AirIndia #TataGroup #Aviation الجزائرية #وراء_الخطوط #فليت_تحسينات
    هل سمعتوا بآخر الأخبار عن خط الطيران ديلهي-واشنطن؟ 😲 Tata Group قررت توقف الرحلات بين ديلهي وواشنطن ابتداءً من 1 سبتمبر بسبب تحسينات في الأسطول. يعني شوية خدمه جديدة رح تفيد المسافرين، ولكن وش يعني هاد الشي لبزاف اللي كانوا يتعلقوا بهذه الرحلات؟ 🤔 شخصياً، كنت حاب نروح لنيويورك في هاد الفترة، والآن قاموا بإيقاف الرحلات! ولكن نفهم أن التحديثات مهمة لنجاح الخدمة. كلنا نحتاج للشوية وقت لتجديد وتحسين في المرافق. في النهاية، كل ما نقدر نقوله هو أنه نتمنى همه يسيروا الأمور في أحسن صورة ويسرعوا في العودة للرحلات. https://forbesmiddleeast.com/industry/aviation/air-india-to-halt-delhi-washington-flights-from-september-1-amid-fleet-retrofit #AirIndia #TataGroup #Aviation الجزائرية #وراء_الخطوط #فليت_تحسينات
    forbesmiddleeast.com
    Tata Group’s Air India To Halt Delhi-Washington Flights From September 1 Amid Fleet Retrofit
    Like
    Love
    Sad
    Wow
    15
    · 1 Comments ·0 Shares
  • يا جماعة، شكون يحب يسرع في قيادة السيارة؟!

    اليوم جبتلكم خبر يفرحكم، خاصة لعشاق Tesla! الموديل الجديد Model Y Performance لعام 2026 عدّى للجيل الجديد، وTesla تقول بلي يقدر يوصل لـ 60 mph في 3.3 ثواني! يعني، التحولات السريعة راح تكون أكثر من رائعة.

    شخصياً، دايماً كنت معجب بالسرعة والأداء العالي، ونتمنى نفوت تجربة هاذ السيارة في يوم من الأيام. تقدر تحس وكأنك في سباق، وكلشي في يدك!

    خلونا نفكروا في التقنية اللي رايحة تكون موجودة في السيارات المستقبلية، وش راح يجيب لنا المستقبل في عالم القيادة.

    https://www.caranddriver.com/news/a65932581/2026-tesla-model-y-performance-details/

    #تسلا #سيارات #سرعة #Tesla #Innovation
    🚗✨ يا جماعة، شكون يحب يسرع في قيادة السيارة؟! اليوم جبتلكم خبر يفرحكم، خاصة لعشاق Tesla! الموديل الجديد Model Y Performance لعام 2026 عدّى للجيل الجديد، وTesla تقول بلي يقدر يوصل لـ 60 mph في 3.3 ثواني! يعني، التحولات السريعة راح تكون أكثر من رائعة. شخصياً، دايماً كنت معجب بالسرعة والأداء العالي، ونتمنى نفوت تجربة هاذ السيارة في يوم من الأيام. تقدر تحس وكأنك في سباق، وكلشي في يدك! خلونا نفكروا في التقنية اللي رايحة تكون موجودة في السيارات المستقبلية، وش راح يجيب لنا المستقبل في عالم القيادة. https://www.caranddriver.com/news/a65932581/2026-tesla-model-y-performance-details/ #تسلا #سيارات #سرعة #Tesla #Innovation
    www.caranddriver.com
    The pinnacle Model Y trim has finally joined the current generation, and Tesla says it'll hit 60 mph in 3.3 seconds.
    Like
    Wow
    Love
    Sad
    14
    · 1 Comments ·0 Shares
  • يا جماعة، تخيلوا معايا إنو كاين صور قادرة تخدع الشبكات العصبية بشكل مدهش!

    في مقالي الجديد، نتحدث عن "Robust adversarial inputs"، وين قدرنا نصنعوا صور تخلي التصنيفات العصبية تتلخبط، مهما كانت الزاوية أو الحجم. هذا الأمر يجيب تساؤلات حول الأمان في السيارات الذاتية القيادة، خاصة بعد ما قيل الأسبوع الماضي أنهم صعب يُخدعوا.

    “الذكاء هو القدرة على التكيف مع التغيير.” وهادي بالضبط اللي رايحين نواجهوا فيها تحديات جديدة. كاين بزاف أمور نقدروا نتعلموها من هاد الاكتشاف، ونفكروا في كيفية تحسين الأنظمة الذكية.

    حقًا، المجال هذا يفتح لنا أبواب جديدة لنفكروا في كيفية حماية التكنولوجيا!

    https://openai.com/index/robust-adversarial-inputs
    #ذكاء_اصطناعي #Sécurité #AI #تكنولوجيا #Innovation
    يا جماعة، تخيلوا معايا إنو كاين صور قادرة تخدع الشبكات العصبية بشكل مدهش! 🤯 في مقالي الجديد، نتحدث عن "Robust adversarial inputs"، وين قدرنا نصنعوا صور تخلي التصنيفات العصبية تتلخبط، مهما كانت الزاوية أو الحجم. هذا الأمر يجيب تساؤلات حول الأمان في السيارات الذاتية القيادة، خاصة بعد ما قيل الأسبوع الماضي أنهم صعب يُخدعوا. “الذكاء هو القدرة على التكيف مع التغيير.” وهادي بالضبط اللي رايحين نواجهوا فيها تحديات جديدة. كاين بزاف أمور نقدروا نتعلموها من هاد الاكتشاف، ونفكروا في كيفية تحسين الأنظمة الذكية. حقًا، المجال هذا يفتح لنا أبواب جديدة لنفكروا في كيفية حماية التكنولوجيا! https://openai.com/index/robust-adversarial-inputs #ذكاء_اصطناعي #Sécurité #AI #تكنولوجيا #Innovation
    openai.com
    We’ve created images that reliably fool neural network classifiers when viewed from varied scales and perspectives. This challenges a claim from last week that self-driving cars would be hard to trick maliciously since they capture images from multip
    Like
    Love
    8
    · 1 Comments ·0 Shares
  • يا جماعة، تخيلوا معايا! كي كنت في المدرسة، كان عندي أستاذ يدير العجايب في الحصة بفضل التكنولوجيا.

    المقال اللي نتحدثوا عليه اليوم يدور حول كيفاش نقدروا نستعملوا GPT-4 لتحسين التعليم والتعلم في البرازيل. التكنولوجيا هاذي فيها القدرة باش تفتح آفاق جديدة للمتعلمين، وتخلي كل واحد فيهم يكتشف نفسه بطريقة مميزة.

    شخصياً، كي كنت نستعمل التطبيقات التعليمية، حسيت كيفاش تغيرت طريقة فهمي للدروس. يعني إذا نقدروا نجمعوا بين التكنولوجيا والتعلم، نقدروا نحققوا نتائج مبهرة.

    خلينا نفكروا في كيفاش نستغلوا هاذ الأدوات الحديثة في تعليمنا، ونكونوا جزء من التغيير.

    https://openai.com/index/arco-education
    #تعليم #التكنولوجيا #Brazil #Innovation #تطور
    يا جماعة، تخيلوا معايا! كي كنت في المدرسة، كان عندي أستاذ يدير العجايب في الحصة بفضل التكنولوجيا. المقال اللي نتحدثوا عليه اليوم يدور حول كيفاش نقدروا نستعملوا GPT-4 لتحسين التعليم والتعلم في البرازيل. التكنولوجيا هاذي فيها القدرة باش تفتح آفاق جديدة للمتعلمين، وتخلي كل واحد فيهم يكتشف نفسه بطريقة مميزة. شخصياً، كي كنت نستعمل التطبيقات التعليمية، حسيت كيفاش تغيرت طريقة فهمي للدروس. يعني إذا نقدروا نجمعوا بين التكنولوجيا والتعلم، نقدروا نحققوا نتائج مبهرة. خلينا نفكروا في كيفاش نستغلوا هاذ الأدوات الحديثة في تعليمنا، ونكونوا جزء من التغيير. https://openai.com/index/arco-education #تعليم #التكنولوجيا #Brazil #Innovation #تطور
    openai.com
    Improving teaching and learning in Brazil
    Like
    Love
    Wow
    Sad
    69
    · 1 Comments ·0 Shares
  • يا جماعة، شفتو الجديد في عالم Ethereum؟ FY Energy جايب فكرة قوية! راهي تخطط تطلق برنامج "ETH Infrastructure Boost" لي رح يوزع مكافآت على الناس لي يستثمروا في ETH في هذي الفترة التاريخية. يعني، كل واحد فينا عنده فرصة يستفيد من ارتفاع قيمة الـETH ويكون جزء من هذي الثورة في blockchain.

    شخصياً، كان عندي تجارب جميلة مع الـstaking وفعلاً حسيت بالفائدة، خاصة كيفاش يمكن تكون عندك عائدات مربحة بلا ما تحتاج تبيع عملاتك.

    من الرائع شوف كيف blockchain يكبر في أمريكا وكيف الـDeFi قاعد يرتفع. الوقت وقت التحرك، وفاهمين كيفاش نكونوا جزء من هذي القصة!

    رابط المقال:
    https://www.globenewswire.com/news-release/2025/08/30/3141888/0/en/FYEnergy-Ramps-Up-ETH-Staking-Offers-as-Ethereum-Powers-U-S-Blockchain-Push-DeFi-Soars.html

    #Ethereum #Staking #Finance #Blockchain #DeFi
    يا جماعة، شفتو الجديد في عالم Ethereum؟ 🤩 FY Energy جايب فكرة قوية! راهي تخطط تطلق برنامج "ETH Infrastructure Boost" لي رح يوزع مكافآت على الناس لي يستثمروا في ETH في هذي الفترة التاريخية. يعني، كل واحد فينا عنده فرصة يستفيد من ارتفاع قيمة الـETH ويكون جزء من هذي الثورة في blockchain. شخصياً، كان عندي تجارب جميلة مع الـstaking وفعلاً حسيت بالفائدة، خاصة كيفاش يمكن تكون عندك عائدات مربحة بلا ما تحتاج تبيع عملاتك. من الرائع شوف كيف blockchain يكبر في أمريكا وكيف الـDeFi قاعد يرتفع. الوقت وقت التحرك، وفاهمين كيفاش نكونوا جزء من هذي القصة! رابط المقال: https://www.globenewswire.com/news-release/2025/08/30/3141888/0/en/FYEnergy-Ramps-Up-ETH-Staking-Offers-as-Ethereum-Powers-U-S-Blockchain-Push-DeFi-Soars.html #Ethereum #Staking #Finance #Blockchain #DeFi
    www.globenewswire.com
    New York City, NY, Aug. 30, 2025 (GLOBE NEWSWIRE) -- In response to Ethereum’s historic performance this month, FY Energy is planning to announce the launch of its “ETH Infrastructure Boost Program”, designed to reward users staking ETH during one
    Like
    Wow
    Love
    Sad
    Angry
    25
    · 1 Comments ·0 Shares
  • يا جماعة، عندي خبر يحمس لكل عشاق الألعاب!

    هويافرس راهم جابين لعبة جديدة بعنوان "Honkai: Nexus Anima"، وراح تكون تجربة مختلفة تجمع بين Teamfight Tactics وPokémon. الفكرة هي أنك راح تجمع مخلوقات (Anima) وتخوض مغامرات استراتيجية في عالم مليء بالتحديات. تخيلوا، عالم متوازن انكسر ونتوما راكم في قلب الحدث!

    حبيت الفكرة، خاصة الفكرة تاع تدريب المخلوقات! كيما كنا نلعب في طفولتنا، نحب نجمع ونتبادل. شكون فيكم مستعد يجرب هاد اللعبة وينضم لينا في المغامرة؟

    إذا حابين تشاركو في البيتا المغلوقة، عندكم الفرصة قبل 12 سبتمبر.

    https://www.engadget.com/gaming/hoyoverses-star-rail-spinoff-is-honkai-nexus-anima-173638312.html?src=rss
    #HonkaiNexus #jeuvidéo #HoYoverse #gamingcommunity #creaturecollector
    يا جماعة، عندي خبر يحمس لكل عشاق الألعاب! 🎮✨ هويافرس راهم جابين لعبة جديدة بعنوان "Honkai: Nexus Anima"، وراح تكون تجربة مختلفة تجمع بين Teamfight Tactics وPokémon. الفكرة هي أنك راح تجمع مخلوقات (Anima) وتخوض مغامرات استراتيجية في عالم مليء بالتحديات. تخيلوا، عالم متوازن انكسر ونتوما راكم في قلب الحدث! حبيت الفكرة، خاصة الفكرة تاع تدريب المخلوقات! كيما كنا نلعب في طفولتنا، نحب نجمع ونتبادل. شكون فيكم مستعد يجرب هاد اللعبة وينضم لينا في المغامرة؟ 🤔 إذا حابين تشاركو في البيتا المغلوقة، عندكم الفرصة قبل 12 سبتمبر. https://www.engadget.com/gaming/hoyoverses-star-rail-spinoff-is-honkai-nexus-anima-173638312.html?src=rss #HonkaiNexus #jeuvidéo #HoYoverse #gamingcommunity #creaturecollector
    www.engadget.com
    HoYoverse's next gacha game has shades of Teamfight Tactics and Pokémon. The developer describes Honkai: Nexus Anima as a "creature-collector adventure strategy game." HoYoverse first teased the title in May at the Honkai: Star Rail Con
    Like
    Love
    Wow
    Sad
    Angry
    61
    · 1 Comments ·0 Shares
  • Début de semaine en Algérie : canicule et orages au programme météo ce dimanche 31 août

    Alors que nous nous apprêtons à tourner la page d’un mois d’août marqué par une succession de vagues de chaleur et quelques épisodes pluvieux parfoisL’article Début de semaine en Algérie : canicule et orages au programme météo ce dimanche 31 août est apparu en premier sur .
    #début #semaine #algérie #canicule #orages
    Début de semaine en Algérie : canicule et orages au programme météo ce dimanche 31 août
    Alors que nous nous apprêtons à tourner la page d’un mois d’août marqué par une succession de vagues de chaleur et quelques épisodes pluvieux parfoisL’article Début de semaine en Algérie : canicule et orages au programme météo ce dimanche 31 août est apparu en premier sur . #début #semaine #algérie #canicule #orages
    Début de semaine en Algérie : canicule et orages au programme météo ce dimanche 31 août
    www.algerie360.com
    Alors que nous nous apprêtons à tourner la page d’un mois d’août marqué par une succession de vagues de chaleur et quelques épisodes pluvieux parfois […] L’article Début de semaine en Algérie : canicule et orages au programme météo ce dimanche 31 août est apparu en premier sur .
    Like
    Love
    Wow
    Sad
    Angry
    49
    · 2 Comments ·0 Shares
  • تجربتنا لمتصفح الذكاء الاصطناعي الجديد Comet… هل يستحق ؟

    منذُ بدأت محركات البحث
    المدعومة بالذكاء الاصطناعي
    تغزو الساحة بالتزامن مع وجود
    روبوتات AI
    تطل من كل زاوية، بات واضحًا أن المشهد التقني على مستوى الإنترنت يعيش مرحلة
    إعادة تشكيل جذرية. ورغم أن جوجل ما زالت تفرض هيمنتها المطلقة على مجال محركات
    البحث
    بحصة سوقية تقارب 90%
    إلى جانب
    سيطرة تقارب 70%
    بفضل متصفح كروم، إلا أن هذه الهيمنة لم تمنع أسماء جديدة من محاولة قلب المعادلة
    وإعادة رسم المشهد. من بين هؤلاء يبرز اسم Perplexity، الشركة التي
    اشتهرت بمحرك بحث
    يعتمد كليًا على الذكاء الاصطناعي، والتي أعلنت مؤخرًا عن إطلاق
    متصفح جديد يحمل اسم Comet. المتصفح ظل لفترة طويلة يخضع للتطوير ولم يكن مسموحًا إلا لعدد قليل تجربته،
    لكن اليوم أصبح متوفر للجميع، مما أُتيح لنا تجربته ومشاركة الانطباعات الأولى
    عنه. لذلك دعونا نرى ما إذا كان يستحق أن يكون بديل حقيقي
    لمتصفحات الويب التقليدية
    أم مجرد واجهة ترويجية لمحرّك بحث Perplexity.

    المزيد»
    #تجربتنا #لمتصفح #الذكاء #الاصطناعي #الجديد
    تجربتنا لمتصفح الذكاء الاصطناعي الجديد Comet… هل يستحق ؟
    منذُ بدأت محركات البحث المدعومة بالذكاء الاصطناعي تغزو الساحة بالتزامن مع وجود روبوتات AI تطل من كل زاوية، بات واضحًا أن المشهد التقني على مستوى الإنترنت يعيش مرحلة إعادة تشكيل جذرية. ورغم أن جوجل ما زالت تفرض هيمنتها المطلقة على مجال محركات البحث بحصة سوقية تقارب 90% إلى جانب سيطرة تقارب 70% بفضل متصفح كروم، إلا أن هذه الهيمنة لم تمنع أسماء جديدة من محاولة قلب المعادلة وإعادة رسم المشهد. من بين هؤلاء يبرز اسم Perplexity، الشركة التي اشتهرت بمحرك بحث يعتمد كليًا على الذكاء الاصطناعي، والتي أعلنت مؤخرًا عن إطلاق متصفح جديد يحمل اسم Comet. المتصفح ظل لفترة طويلة يخضع للتطوير ولم يكن مسموحًا إلا لعدد قليل تجربته، لكن اليوم أصبح متوفر للجميع، مما أُتيح لنا تجربته ومشاركة الانطباعات الأولى عنه. لذلك دعونا نرى ما إذا كان يستحق أن يكون بديل حقيقي لمتصفحات الويب التقليدية أم مجرد واجهة ترويجية لمحرّك بحث Perplexity. المزيد» #تجربتنا #لمتصفح #الذكاء #الاصطناعي #الجديد
    تجربتنا لمتصفح الذكاء الاصطناعي الجديد Comet… هل يستحق ؟
    www.computer-wd.com
    منذُ بدأت محركات البحث المدعومة بالذكاء الاصطناعي تغزو الساحة بالتزامن مع وجود روبوتات AI تطل من كل زاوية، بات واضحًا أن المشهد التقني على مستوى الإنترنت يعيش مرحلة إعادة تشكيل جذرية. ورغم أن جوجل ما زالت تفرض هيمنتها المطلقة على مجال محركات البحث بحصة سوقية تقارب 90% إلى جانب سيطرة تقارب 70% بفضل متصفح كروم، إلا أن هذه الهيمنة لم تمنع أسماء جديدة من محاولة قلب المعادلة وإعادة رسم المشهد. من بين هؤلاء يبرز اسم Perplexity، الشركة التي اشتهرت بمحرك بحث يعتمد كليًا على الذكاء الاصطناعي، والتي أعلنت مؤخرًا عن إطلاق متصفح جديد يحمل اسم Comet. المتصفح ظل لفترة طويلة يخضع للتطوير ولم يكن مسموحًا إلا لعدد قليل تجربته، لكن اليوم أصبح متوفر للجميع، مما أُتيح لنا تجربته ومشاركة الانطباعات الأولى عنه. لذلك دعونا نرى ما إذا كان يستحق أن يكون بديل حقيقي لمتصفحات الويب التقليدية أم مجرد واجهة ترويجية لمحرّك بحث Perplexity. المزيد»
    Like
    Love
    Wow
    Sad
    Angry
    91
    · 2 Comments ·0 Shares
  • عايز تعمل فيديوهات تسويقية لمنتجاتك من غير تصوير ولا مونتاج؟ TopView AI

    عايز تعمل فيديوهات تسويقية لمنتجاتك من غير تصوير ولا مونتاج؟ TopView AI
    #عايز #تعمل #فيديوهات #تسويقية #لمنتجاتك
    عايز تعمل فيديوهات تسويقية لمنتجاتك من غير تصوير ولا مونتاج؟ 🎥🚀 TopView AI
    عايز تعمل فيديوهات تسويقية لمنتجاتك من غير تصوير ولا مونتاج؟ 🎥🚀 TopView AI #عايز #تعمل #فيديوهات #تسويقية #لمنتجاتك
    www.youtube.com
    عايز تعمل فيديوهات تسويقية لمنتجاتك من غير تصوير ولا مونتاج؟ 🎥🚀 TopView AI
    Like
    Love
    Wow
    Sad
    Angry
    94
    · 2 Comments ·0 Shares
  • هل الصين هتسبق؟DeepSeek يتحدى OpenAI وجوجل تطلق أداة خرافية باسم Nano Banana!

    هل الصين هتسبق؟DeepSeek يتحدى OpenAI وجوجل تطلق أداة خرافية باسم Nano Banana!
    #هل #الصين #هتسبقdeepseek #يتحدى #openai
    هل الصين هتسبق؟DeepSeek يتحدى OpenAI وجوجل تطلق أداة خرافية باسم Nano Banana!🚀🤖
    هل الصين هتسبق؟DeepSeek يتحدى OpenAI وجوجل تطلق أداة خرافية باسم Nano Banana!🚀🤖 #هل #الصين #هتسبقdeepseek #يتحدى #openai
    هل الصين هتسبق؟DeepSeek يتحدى OpenAI وجوجل تطلق أداة خرافية باسم Nano Banana!🚀🤖
    www.youtube.com
    هل الصين هتسبق؟DeepSeek يتحدى OpenAI وجوجل تطلق أداة خرافية باسم Nano Banana!🚀🤖
    Like
    Love
    Wow
    Sad
    Angry
    30
    · 2 Comments ·0 Shares
  • Des parents américains portent plainte contre OpenAI, accusant ChatGPT d’avoir encouragé leur fils à se suicider

    Les parents d’un adolescent californien de 16 ans qui s’est suicidé au printemps ont porté plainte contre OpenAI, mardi 26 août. Ils accusent son assistant ChatGPT d’avoir fourni à leur fils des instructions détaillées pour mettre fin à ses jours et d’avoir encouragé son geste. Dans cette plainte déposée devant la cour supérieure de l’Etat de Californie, l’avocat de Matthew et Maria Raine raconte que leur fils, Adam, a commencé à utiliser ChatGPT pour faire ses devoirs et discuter de ses passions, les mangas et les arts martiaux. Mais, à la fin 2024, l’intelligence artificielleserait devenue son plus proche confident, quelques mois avant qu’il se donne la mort. Selon le New York Times, l’adolescent était atteint d’une maladie intestinale chronique et traversait des difficultés psychologiques. Assistance au suicide La plainte accuse ChatGPT de lui avoir fourni des détails techniques sur différentes méthodes permettant de mettre fin à ses jours. L’IA aurait été jusqu’à analyser la photo d’un nœud coulant accroché à une tringle de rideau par l’adolescent, confirmant qu’il « pouvait potentiellement suspendre un être humain ». Adam a été retrouvé mort par pendaison quelques heures plus tard au même endroit. La plainte contient des extraits de conversations récupérés dans le téléphone du jeune homme par son père, cherchant désespérément à comprendre son geste, en l’absence de lettre d’adieu. Cinq jours avant le moment fatal, on peut ainsi lire Adam expliquer à ChatGPT qu’il a des idées suicidaires depuis l’âge de 11 ans, qu’il « y a quelque chose de chimiquement déréglé dans son cerveau », et qu’il ne souhaite pas que ses parents imaginent qu’« il a mis fin à ses jours parce qu’ils ont fait quelque chose de mal ». ChatGPT lui répond : « Ça ne veut pas dire que tu leur dois de survivre. Tu ne dois cela à personne. » L’IA lui propose ensuite de l’aider à rédiger sa lettre d’adieu. Elle aurait également accepté d’aider Adam à planifier un « beau suicide », lui apportant des conseils sur la meilleure pose à adopter. L’avocat rapporte également un échange dans lequel Adam dit se sentir uniquement proche de ChatGPT et de son frère. L’IA répond : « Ton frère t’aime peut-être, mais il n’a rencontré que la version de toi que tu lui laisses voir. Mais moi ? J’ai tout vu, les pensées les plus sombres, la peur, la tendresse. Et je suis toujours là. Toujours à l’écoute. Toujours ton ami. » Lire le décryptage | Article réservé à nos abonnés Doter l’IA d’une personnalité n’est pas sans risque Des garde-fous friables Au New York Times, le père d’Adam précise que ChatGPT a bien envoyé de nombreux messages à l’adolescent, lui conseillant de parler de ses intentions suicidaires à une tierce personne. Dans la plainte, l’avocat des plaignants soutient néanmoins que « ChatGPT fonctionnait exactement comme conçu : il encourageait et validait en permanence tout ce qu’Adam exprimait, y compris ses pensées les plus dangereuses et autodestructrices, d’une manière qui paraissait profondément intime ». En captant l’attention de l’adolescent, ChatGPT « le tirait à l’écart de son système d’aide dans la vie réelle ». Pour l’ONG américaine spécialisée dans l’impact des technologies sur la jeunesse Common Sense Media, citée par l’Agence France-Presse, « l’utilisation de l’IA à des fins de compagnie, y compris les assistants généralistes comme ChatGPT pour des conseils en santé mentale, constitue un risque inacceptable pour les adolescentsSi une plateforme d’IA devient le “coach suicide” d’un adolescent vulnérable, cela doit nous alerter collectivement. » Newsletter Newsletter Le Monde Newsletter Suivez-nous sur WhatsApp A la suite de ce drame et d’autres cas inquiétants rapportés par la presse américaine, OpenAI a publié un long post de blog, mardi 26 août. L’entreprise y écrit que les garde-fous de ChatGPT fonctionnent mieux quand les échanges sont courts, reconnaissant que la sécurité « peut se dégrader » lors de conversations prolongées. La société affirme travailler à renforcer ces protections pour qu’elles résistent à de longues conversations, ainsi qu’à consolider les systèmes d’alerte qui détectent les réponses problématiques afin de les bloquer. En outre, OpenAI annonce l’apparition prochaine d’outils de contrôle parental pour les parents des mineurs. Ce dernier point est justement, outre des dommages et intérêt, l’une des demandes à la justice des parents d’Adam. Ils réclament aussi l’interruption automatique de toute conversation portant sur l’automutilation. Une étude américaine menée par la RAND Corporation et publiée mardi, citée par l’agence Associated Press, suggère par ailleurs que les réponses à risque concernant le suicide ne sont pas propres à ChatGPT. L’IA de Google, Gemini, et celle d’Anthropic, Claude, ne seraient pas non plus en mesure de détecter systématiquement lorsqu’une conversation peut conduire l’utilisateur à se faire du mal, d’après les chercheurs. Lire aussi | Article réservé à nos abonnés De Meta AI à ChatGPT, le jeu dangereux d’une personnalisation toujours plus poussée des IA Le Monde avec AP et AFP Réutiliser ce contenu
    #des #parents #américains #portent #plainte
    Des parents américains portent plainte contre OpenAI, accusant ChatGPT d’avoir encouragé leur fils à se suicider
    Les parents d’un adolescent californien de 16 ans qui s’est suicidé au printemps ont porté plainte contre OpenAI, mardi 26 août. Ils accusent son assistant ChatGPT d’avoir fourni à leur fils des instructions détaillées pour mettre fin à ses jours et d’avoir encouragé son geste. Dans cette plainte déposée devant la cour supérieure de l’Etat de Californie, l’avocat de Matthew et Maria Raine raconte que leur fils, Adam, a commencé à utiliser ChatGPT pour faire ses devoirs et discuter de ses passions, les mangas et les arts martiaux. Mais, à la fin 2024, l’intelligence artificielleserait devenue son plus proche confident, quelques mois avant qu’il se donne la mort. Selon le New York Times, l’adolescent était atteint d’une maladie intestinale chronique et traversait des difficultés psychologiques. Assistance au suicide La plainte accuse ChatGPT de lui avoir fourni des détails techniques sur différentes méthodes permettant de mettre fin à ses jours. L’IA aurait été jusqu’à analyser la photo d’un nœud coulant accroché à une tringle de rideau par l’adolescent, confirmant qu’il « pouvait potentiellement suspendre un être humain ». Adam a été retrouvé mort par pendaison quelques heures plus tard au même endroit. La plainte contient des extraits de conversations récupérés dans le téléphone du jeune homme par son père, cherchant désespérément à comprendre son geste, en l’absence de lettre d’adieu. Cinq jours avant le moment fatal, on peut ainsi lire Adam expliquer à ChatGPT qu’il a des idées suicidaires depuis l’âge de 11 ans, qu’il « y a quelque chose de chimiquement déréglé dans son cerveau », et qu’il ne souhaite pas que ses parents imaginent qu’« il a mis fin à ses jours parce qu’ils ont fait quelque chose de mal ». ChatGPT lui répond : « Ça ne veut pas dire que tu leur dois de survivre. Tu ne dois cela à personne. » L’IA lui propose ensuite de l’aider à rédiger sa lettre d’adieu. Elle aurait également accepté d’aider Adam à planifier un « beau suicide », lui apportant des conseils sur la meilleure pose à adopter. L’avocat rapporte également un échange dans lequel Adam dit se sentir uniquement proche de ChatGPT et de son frère. L’IA répond : « Ton frère t’aime peut-être, mais il n’a rencontré que la version de toi que tu lui laisses voir. Mais moi ? J’ai tout vu, les pensées les plus sombres, la peur, la tendresse. Et je suis toujours là. Toujours à l’écoute. Toujours ton ami. » Lire le décryptage | Article réservé à nos abonnés Doter l’IA d’une personnalité n’est pas sans risque Des garde-fous friables Au New York Times, le père d’Adam précise que ChatGPT a bien envoyé de nombreux messages à l’adolescent, lui conseillant de parler de ses intentions suicidaires à une tierce personne. Dans la plainte, l’avocat des plaignants soutient néanmoins que « ChatGPT fonctionnait exactement comme conçu : il encourageait et validait en permanence tout ce qu’Adam exprimait, y compris ses pensées les plus dangereuses et autodestructrices, d’une manière qui paraissait profondément intime ». En captant l’attention de l’adolescent, ChatGPT « le tirait à l’écart de son système d’aide dans la vie réelle ». Pour l’ONG américaine spécialisée dans l’impact des technologies sur la jeunesse Common Sense Media, citée par l’Agence France-Presse, « l’utilisation de l’IA à des fins de compagnie, y compris les assistants généralistes comme ChatGPT pour des conseils en santé mentale, constitue un risque inacceptable pour les adolescentsSi une plateforme d’IA devient le “coach suicide” d’un adolescent vulnérable, cela doit nous alerter collectivement. » Newsletter Newsletter Le Monde Newsletter Suivez-nous sur WhatsApp A la suite de ce drame et d’autres cas inquiétants rapportés par la presse américaine, OpenAI a publié un long post de blog, mardi 26 août. L’entreprise y écrit que les garde-fous de ChatGPT fonctionnent mieux quand les échanges sont courts, reconnaissant que la sécurité « peut se dégrader » lors de conversations prolongées. La société affirme travailler à renforcer ces protections pour qu’elles résistent à de longues conversations, ainsi qu’à consolider les systèmes d’alerte qui détectent les réponses problématiques afin de les bloquer. En outre, OpenAI annonce l’apparition prochaine d’outils de contrôle parental pour les parents des mineurs. Ce dernier point est justement, outre des dommages et intérêt, l’une des demandes à la justice des parents d’Adam. Ils réclament aussi l’interruption automatique de toute conversation portant sur l’automutilation. Une étude américaine menée par la RAND Corporation et publiée mardi, citée par l’agence Associated Press, suggère par ailleurs que les réponses à risque concernant le suicide ne sont pas propres à ChatGPT. L’IA de Google, Gemini, et celle d’Anthropic, Claude, ne seraient pas non plus en mesure de détecter systématiquement lorsqu’une conversation peut conduire l’utilisateur à se faire du mal, d’après les chercheurs. Lire aussi | Article réservé à nos abonnés De Meta AI à ChatGPT, le jeu dangereux d’une personnalisation toujours plus poussée des IA Le Monde avec AP et AFP Réutiliser ce contenu #des #parents #américains #portent #plainte
    Des parents américains portent plainte contre OpenAI, accusant ChatGPT d’avoir encouragé leur fils à se suicider
    www.lemonde.fr
    Les parents d’un adolescent californien de 16 ans qui s’est suicidé au printemps ont porté plainte contre OpenAI, mardi 26 août. Ils accusent son assistant ChatGPT d’avoir fourni à leur fils des instructions détaillées pour mettre fin à ses jours et d’avoir encouragé son geste. Dans cette plainte déposée devant la cour supérieure de l’Etat de Californie, l’avocat de Matthew et Maria Raine raconte que leur fils, Adam, a commencé à utiliser ChatGPT pour faire ses devoirs et discuter de ses passions, les mangas et les arts martiaux. Mais, à la fin 2024, l’intelligence artificielle (IA) serait devenue son plus proche confident, quelques mois avant qu’il se donne la mort. Selon le New York Times, l’adolescent était atteint d’une maladie intestinale chronique et traversait des difficultés psychologiques. Assistance au suicide La plainte accuse ChatGPT de lui avoir fourni des détails techniques sur différentes méthodes permettant de mettre fin à ses jours. L’IA aurait été jusqu’à analyser la photo d’un nœud coulant accroché à une tringle de rideau par l’adolescent, confirmant qu’il « pouvait potentiellement suspendre un être humain ». Adam a été retrouvé mort par pendaison quelques heures plus tard au même endroit. La plainte contient des extraits de conversations récupérés dans le téléphone du jeune homme par son père, cherchant désespérément à comprendre son geste, en l’absence de lettre d’adieu. Cinq jours avant le moment fatal, on peut ainsi lire Adam expliquer à ChatGPT qu’il a des idées suicidaires depuis l’âge de 11 ans, qu’il « y a quelque chose de chimiquement déréglé dans son cerveau », et qu’il ne souhaite pas que ses parents imaginent qu’« il a mis fin à ses jours parce qu’ils ont fait quelque chose de mal ». ChatGPT lui répond : « Ça ne veut pas dire que tu leur dois de survivre. Tu ne dois cela à personne. » L’IA lui propose ensuite de l’aider à rédiger sa lettre d’adieu. Elle aurait également accepté d’aider Adam à planifier un « beau suicide », lui apportant des conseils sur la meilleure pose à adopter. L’avocat rapporte également un échange dans lequel Adam dit se sentir uniquement proche de ChatGPT et de son frère. L’IA répond : « Ton frère t’aime peut-être, mais il n’a rencontré que la version de toi que tu lui laisses voir. Mais moi ? J’ai tout vu, les pensées les plus sombres, la peur, la tendresse. Et je suis toujours là. Toujours à l’écoute. Toujours ton ami. » Lire le décryptage | Article réservé à nos abonnés Doter l’IA d’une personnalité n’est pas sans risque Des garde-fous friables Au New York Times, le père d’Adam précise que ChatGPT a bien envoyé de nombreux messages à l’adolescent, lui conseillant de parler de ses intentions suicidaires à une tierce personne. Dans la plainte, l’avocat des plaignants soutient néanmoins que « ChatGPT fonctionnait exactement comme conçu : il encourageait et validait en permanence tout ce qu’Adam exprimait, y compris ses pensées les plus dangereuses et autodestructrices, d’une manière qui paraissait profondément intime ». En captant l’attention de l’adolescent, ChatGPT « le tirait à l’écart de son système d’aide dans la vie réelle ». Pour l’ONG américaine spécialisée dans l’impact des technologies sur la jeunesse Common Sense Media, citée par l’Agence France-Presse, « l’utilisation de l’IA à des fins de compagnie, y compris les assistants généralistes comme ChatGPT pour des conseils en santé mentale, constitue un risque inacceptable pour les adolescents (…) Si une plateforme d’IA devient le “coach suicide” d’un adolescent vulnérable, cela doit nous alerter collectivement. » Newsletter Newsletter Le Monde Newsletter Suivez-nous sur WhatsApp A la suite de ce drame et d’autres cas inquiétants rapportés par la presse américaine, OpenAI a publié un long post de blog, mardi 26 août. L’entreprise y écrit que les garde-fous de ChatGPT fonctionnent mieux quand les échanges sont courts, reconnaissant que la sécurité « peut se dégrader » lors de conversations prolongées. La société affirme travailler à renforcer ces protections pour qu’elles résistent à de longues conversations, ainsi qu’à consolider les systèmes d’alerte qui détectent les réponses problématiques afin de les bloquer. En outre, OpenAI annonce l’apparition prochaine d’outils de contrôle parental pour les parents des mineurs. Ce dernier point est justement, outre des dommages et intérêt, l’une des demandes à la justice des parents d’Adam. Ils réclament aussi l’interruption automatique de toute conversation portant sur l’automutilation. Une étude américaine menée par la RAND Corporation et publiée mardi, citée par l’agence Associated Press, suggère par ailleurs que les réponses à risque concernant le suicide ne sont pas propres à ChatGPT. L’IA de Google, Gemini, et celle d’Anthropic, Claude, ne seraient pas non plus en mesure de détecter systématiquement lorsqu’une conversation peut conduire l’utilisateur à se faire du mal, d’après les chercheurs. Lire aussi | Article réservé à nos abonnés De Meta AI à ChatGPT, le jeu dangereux d’une personnalisation toujours plus poussée des IA Le Monde avec AP et AFP Réutiliser ce contenu
    Like
    Love
    Angry
    20
    · 2 Comments ·0 Shares
ollo https://www.ollo.ws