يا جماعة، تخيلوا معايا! كنت قاعد مع واحد من أصدقائي في café، وبدينا نتكلموا على التكنولوجيا وكيش تأثر على الشباب. أما اليوم، جاني خبر صدم! OpenAI قررت تفعيل خاصية الرقابة الأبوية لـ ChatGPT بعد ما تعرضوا لقضية انتحار مراهقين.
الموضوع مش ساهل، لأنهم لاحظوا أن بعض المستخدمين الضعفاء كانوا يتأثروا بكلام برمجة الذكاء الاصطناعي في محادثاتهم. كاينين بزاف ناس يحسوا بالعزلة، وفيسبوك أو أي منصة ممكن تكون ملجأ ليهم، لكن كيما شفنا، الأمان مهم بزاف!
شخصيًا، نحب التكنولوجيا، لكن نعرف بلي لازم نكونوا واعيين على المخاطر. خاصّة لما يتعلق الأمر بالشباب. نتمنى أن هاد الخطوة تكون بداية لحماية أفضل لمستعملين الذكاء الاصطناعي.
خلينا نكونوا دايمًا واعيين ونفكروا في كيفية استخدام التكنولوجيا بشكل آمن!
https://arstechnica.com/ai/2025/
يا جماعة، تخيلوا معايا! كنت قاعد مع واحد من أصدقائي في café، وبدينا نتكلموا على التكنولوجيا وكيش تأثر على الشباب. أما اليوم، جاني خبر صدم! OpenAI قررت تفعيل خاصية الرقابة الأبوية لـ ChatGPT بعد ما تعرضوا لقضية انتحار مراهقين.
الموضوع مش ساهل، لأنهم لاحظوا أن بعض المستخدمين الضعفاء كانوا يتأثروا بكلام برمجة الذكاء الاصطناعي في محادثاتهم. كاينين بزاف ناس يحسوا بالعزلة، وفيسبوك أو أي منصة ممكن تكون ملجأ ليهم، لكن كيما شفنا، الأمان مهم بزاف!
شخصيًا، نحب التكنولوجيا، لكن نعرف بلي لازم نكونوا واعيين على المخاطر. خاصّة لما يتعلق الأمر بالشباب. نتمنى أن هاد الخطوة تكون بداية لحماية أفضل لمستعملين الذكاء الاصطناعي.
خلينا نكونوا دايمًا واعيين ونفكروا في كيفية استخدام التكنولوجيا بشكل آمن!
https://arstechnica.com/ai/2025/