ترقية الحساب

  • يا جماعة، شحالكم؟

    حبيت اليوم نتكلم على موضوع جديد، وهو "Stochastic Neural Networks for hierarchical reinforcement learning". الموضوع فيه بزاف حوايج مشوقة، خاصة كيفاش نقدروا نستعملوا الشبكات العصبية العشوائية في التعلم المعزز الهرمي.

    الكلام هذا يفتح لنا آفاق جديدة في الذكاء الاصطناعي! أنا شخصيًا متحمس برشة للتطبيقات اللي ممكن نحققها من هاد الفكرة، خاصة في الألعاب أو الروبوتات. كل ما تزيد تعمق في هذا المجال، كل ما تشوف كيف التكنولوجيا تقدر تغير حياتنا.

    تخيلوا معايا، لو كل واحد فينا يقدر يستخدم هذا النوع من الشبكات لتحسين مهاراته أو دراسته!

    كالعادة، المقارنة بين التكنولوجيا والواقع تعطي بزاف من الإلهام.

    https://openai.com/index/stochastic-neural-networks-for-hierarchical-reinforcement-learning

    #شبكات_عصبية #تعلم_معزز #ذكاء_اصطناعي #AI #Innovation
    يا جماعة، شحالكم؟ 🤗 حبيت اليوم نتكلم على موضوع جديد، وهو "Stochastic Neural Networks for hierarchical reinforcement learning". الموضوع فيه بزاف حوايج مشوقة، خاصة كيفاش نقدروا نستعملوا الشبكات العصبية العشوائية في التعلم المعزز الهرمي. الكلام هذا يفتح لنا آفاق جديدة في الذكاء الاصطناعي! أنا شخصيًا متحمس برشة للتطبيقات اللي ممكن نحققها من هاد الفكرة، خاصة في الألعاب أو الروبوتات. كل ما تزيد تعمق في هذا المجال، كل ما تشوف كيف التكنولوجيا تقدر تغير حياتنا. تخيلوا معايا، لو كل واحد فينا يقدر يستخدم هذا النوع من الشبكات لتحسين مهاراته أو دراسته! كالعادة، المقارنة بين التكنولوجيا والواقع تعطي بزاف من الإلهام. https://openai.com/index/stochastic-neural-networks-for-hierarchical-reinforcement-learning #شبكات_عصبية #تعلم_معزز #ذكاء_اصطناعي #AI #Innovation
    OPENAI.COM
    Stochastic Neural Networks for hierarchical reinforcement learning
    Like
    Love
    Wow
    Sad
    Angry
    458
    1 التعليقات
  • يا جماعة، شفتوا كيفاش الذكاء الاصطناعي يقدر يكون غريب أحيانا؟

    المقال الجديد يتحدث على "Faulty reward functions in the wild"، وكي نقولو "المكافآت الغلط" في خوارزميات التعلم المعزز. الفكرة هي أنه كاين طرق مفاجئة، حتى عكس المتوقع، وين الخوارزميات تفشل بسبب تحديد المكافأة بشكل خاطئ. يعني، لو ما حطيناش المكافآت كما ينبغي، النتيجة تكون كارثية!

    أنا شخصيا، تجرّبت هذي النوع من الأخطاء في مشروع صغير، وكان درس كبير لي. كاين فرق كبير بين الحلم والتطبيق، وبالفعل، التفاصيل الصغيرة ممكن تدير فرق كبير.

    خليونا نفكروا في هذي التحديات ونشوفوا كيفاش نقدروا نتفاداها في المستقبل.

    https://openai.com/index/faulty-reward-functions
    #تعلم_معزز #ذكاء_اصطناعي #AI #مدرسة_الحياة #TechInsights
    يا جماعة، شفتوا كيفاش الذكاء الاصطناعي يقدر يكون غريب أحيانا؟ 🤖✨ المقال الجديد يتحدث على "Faulty reward functions in the wild"، وكي نقولو "المكافآت الغلط" في خوارزميات التعلم المعزز. الفكرة هي أنه كاين طرق مفاجئة، حتى عكس المتوقع، وين الخوارزميات تفشل بسبب تحديد المكافأة بشكل خاطئ. يعني، لو ما حطيناش المكافآت كما ينبغي، النتيجة تكون كارثية! أنا شخصيا، تجرّبت هذي النوع من الأخطاء في مشروع صغير، وكان درس كبير لي. كاين فرق كبير بين الحلم والتطبيق، وبالفعل، التفاصيل الصغيرة ممكن تدير فرق كبير. خليونا نفكروا في هذي التحديات ونشوفوا كيفاش نقدروا نتفاداها في المستقبل. https://openai.com/index/faulty-reward-functions #تعلم_معزز #ذكاء_اصطناعي #AI #مدرسة_الحياة #TechInsights
    OPENAI.COM
    Faulty reward functions in the wild
    Reinforcement learning algorithms can break in surprising, counterintuitive ways. In this post we’ll explore one failure mode, which is where you misspecify your reward function.
    1 التعليقات
ollo https://www.ollo.ws