• يا جماعة، هل سبق لك تفكروا كيفاش التعلّم العميق يتطور؟

    المقال الجديد يتناول فكرة "Equivalence between policy gradients and soft Q-learning"، ويناقش كيفاش الأساليب هذو يتشابهوا ويخدموا بنفس الهدف في الذكاء الاصطناعي. يعني ببساطة، كاين طرق مختلفة لكن الهدف واحد: كيفاش نعلموا الآلة تتخذ قرارات صحيحة!

    من تجربتي، لما بدات نغوص في عالم التعلم الآلي، كنت نعتقد أن كل تقنية لازم تكون مستقلة، لكن لقيت أن الفهم العميق للتقنيات المختلفة يفتح لك آفاق جديدة. هذا المجال مليء بالعجائب، وكل يوم فيه حاجة جديدة نتعلمها.

    خليونا نفكروا في هذي العلاقات بين الأساليب ونديروا خطوات لنطوّروا مهاراتنا أكثر!

    https://openai.com/index/equivalence-between-policy-gradients-and-soft-q-learning
    #تعلم_آلي #DeepLearning #ArtificialIntelligence #PolicyGradients #Qlearning
    يا جماعة، هل سبق لك تفكروا كيفاش التعلّم العميق يتطور؟ 🤔 المقال الجديد يتناول فكرة "Equivalence between policy gradients and soft Q-learning"، ويناقش كيفاش الأساليب هذو يتشابهوا ويخدموا بنفس الهدف في الذكاء الاصطناعي. يعني ببساطة، كاين طرق مختلفة لكن الهدف واحد: كيفاش نعلموا الآلة تتخذ قرارات صحيحة! من تجربتي، لما بدات نغوص في عالم التعلم الآلي، كنت نعتقد أن كل تقنية لازم تكون مستقلة، لكن لقيت أن الفهم العميق للتقنيات المختلفة يفتح لك آفاق جديدة. هذا المجال مليء بالعجائب، وكل يوم فيه حاجة جديدة نتعلمها. خليونا نفكروا في هذي العلاقات بين الأساليب ونديروا خطوات لنطوّروا مهاراتنا أكثر! https://openai.com/index/equivalence-between-policy-gradients-and-soft-q-learning #تعلم_آلي #DeepLearning #ArtificialIntelligence #PolicyGradients #Qlearning
    Like
    Love
    Wow
    Sad
    Angry
    1KB
    · 1 Commentaires ·0 Parts
  • يا جماعة، شكون يحب يتعلم عن Deep Learning؟

    في 2 فيفري، عملنا أول ورشة "Spinning Up" كجزء من مبادرتنا التعليمية الجديدة في OpenAI. الورشة كانت فرصة رائعة لنتعرف على عالم الذكاء الاصطناعي بشكل أعمق ونغوص في تقنيات التعلم العميق.

    شخصياً، حسيت بأنه كان عندنا جو مميز، كل واحد فينا كان يشارك أفكاره وتجربته، وكان النقاش حامي. هذا النوع من المبادرات يحفزنا نكتشف ونبتكر أكثر في هذا المجال، ولازم نستغل الفرصة.

    نتمنى كل واحد فينا يواصل في هذا الاتجاه ويطور مهاراته، المستقبل واعد!

    https://openai.com/index/spinning-up-in-deep-rl-workshop-review
    #تعلم_عميق #OpenAI #Workshop #ذكاء_اصطناعي #DeepLearning
    يا جماعة، شكون يحب يتعلم عن Deep Learning؟ 🤖 في 2 فيفري، عملنا أول ورشة "Spinning Up" كجزء من مبادرتنا التعليمية الجديدة في OpenAI. الورشة كانت فرصة رائعة لنتعرف على عالم الذكاء الاصطناعي بشكل أعمق ونغوص في تقنيات التعلم العميق. شخصياً، حسيت بأنه كان عندنا جو مميز، كل واحد فينا كان يشارك أفكاره وتجربته، وكان النقاش حامي. هذا النوع من المبادرات يحفزنا نكتشف ونبتكر أكثر في هذا المجال، ولازم نستغل الفرصة. نتمنى كل واحد فينا يواصل في هذا الاتجاه ويطور مهاراته، المستقبل واعد! https://openai.com/index/spinning-up-in-deep-rl-workshop-review #تعلم_عميق #OpenAI #Workshop #ذكاء_اصطناعي #DeepLearning
    openai.com
    On February 2, we held our first Spinning Up Workshop as part of our new education initiative at OpenAI.
    Like
    Love
    Wow
    Angry
    Sad
    866
    · 1 Commentaires ·0 Parts
  • حابّين نتكلّموا على ظاهرة غريبة ومرات مفيدة في عالم الـAI، نسميها "Deep double descent".

    المقال يشرح كيف أنه في بعض الموديلات كيما CNNs و ResNets و Transformers، الأداء يبدى يتحسن، بعدين يطيح، ومن بعد يرجع يتحسن مرة أخرى مع زيادة حجم النموذج أو البيانات أو وقت التدريب. يعني كأننا في rollercoaster، رايحين جاين!

    شخصياً، هذا الشيء يعلمني أنه في البحث، لازم نكون مستعدين للمفاجآت، كيما في الحياتنا. أحيانا، كي تظن أن الأمور رايحة تسوء، يجيك حل غير متوقع يبدل كل شيء!

    يعني، خلينا نكون مفتوحين لتجارب جديدة ونتبعوا المفاجآت في هذا المجال الواسع.

    https://openai.com/index/deep-double-descent
    #AI #DeepLearning #Research #Algorithmes #Innovation
    🔥 حابّين نتكلّموا على ظاهرة غريبة ومرات مفيدة في عالم الـAI، نسميها "Deep double descent". المقال يشرح كيف أنه في بعض الموديلات كيما CNNs و ResNets و Transformers، الأداء يبدى يتحسن، بعدين يطيح، ومن بعد يرجع يتحسن مرة أخرى مع زيادة حجم النموذج أو البيانات أو وقت التدريب. يعني كأننا في rollercoaster، رايحين جاين! 😄 شخصياً، هذا الشيء يعلمني أنه في البحث، لازم نكون مستعدين للمفاجآت، كيما في الحياتنا. أحيانا، كي تظن أن الأمور رايحة تسوء، يجيك حل غير متوقع يبدل كل شيء! يعني، خلينا نكون مفتوحين لتجارب جديدة ونتبعوا المفاجآت في هذا المجال الواسع. https://openai.com/index/deep-double-descent #AI #DeepLearning #Research #Algorithmes #Innovation
    openai.com
    We show that the double descent phenomenon occurs in CNNs, ResNets, and transformers: performance first improves, then gets worse, and then improves again with increasing model size, data size, or training time. This effect is often avoided through c
    Like
    Love
    Wow
    Angry
    Sad
    298
    · 1 Commentaires ·0 Parts
  • سلام عليكم جميعًا! كيف حالكم؟ في آخر فترة، شفت واحد الويبينار عن الذكاء الاصطناعي وكيفاش يتطور بشكل غير تقليدي، وهذا خلاني نفكر في موضوع مهم: "Nonlinear computation in deep linear networks".

    المقال هذا يتحدث على كيفاش الشبكات العصبية العميقة، حتى كاينة غير خطية، تقدر تحقق نتائج مذهلة. يعني، حتى في بنية بسيطة، تقدر تحصل على تعقيد كبير في الحسابات! هذي الفكرة تفتح آفاق جديدة في مجالات عديدة، من الذكاء الاصطناعي إلى العلوم التطبيقية.

    من تجربتي، لقيت أن فهم الأساسيات كيفاش تتداخل ممكن يعطينا القوة لنصنع حلول مبتكرة.

    فكروا في هذي التقنية الجديدة، وكيف ممكن تستعمل في مشاريعكم القادمة!

    https://openai.com/index/nonlinear-computation-in-deep-linear-networks
    #ذكاء_اصطناعي #DeepLearning #Innovations #Computing #Recherche
    🌟 سلام عليكم جميعًا! كيف حالكم؟ في آخر فترة، شفت واحد الويبينار عن الذكاء الاصطناعي وكيفاش يتطور بشكل غير تقليدي، وهذا خلاني نفكر في موضوع مهم: "Nonlinear computation in deep linear networks". 🤖 المقال هذا يتحدث على كيفاش الشبكات العصبية العميقة، حتى كاينة غير خطية، تقدر تحقق نتائج مذهلة. يعني، حتى في بنية بسيطة، تقدر تحصل على تعقيد كبير في الحسابات! هذي الفكرة تفتح آفاق جديدة في مجالات عديدة، من الذكاء الاصطناعي إلى العلوم التطبيقية. من تجربتي، لقيت أن فهم الأساسيات كيفاش تتداخل ممكن يعطينا القوة لنصنع حلول مبتكرة. فكروا في هذي التقنية الجديدة، وكيف ممكن تستعمل في مشاريعكم القادمة! 🔗 https://openai.com/index/nonlinear-computation-in-deep-linear-networks #ذكاء_اصطناعي #DeepLearning #Innovations #Computing #Recherche
    1 Commentaires ·0 Parts
  • واش راكم خاوتي؟ حبيت نشارك معاكم موضوع جديد يخص عالم الذكاء الاصطناعي ويعطي نظرة مميزة على "Weak-to-strong generalization".

    في المقال هذا، يتحدثو باحثين على كيفاش نقدروا نستعملو الخصائص العامة للتعلم العميق باش نتحكموا في نماذج قوية تحت إشراف ضعيف. يعني، هل ممكن نزيدو نعززو قدرات النماذج القوية رغم عدم وجود إشراف قوي؟

    صراحة، الفكرة هذي تثير فضولي، خاصة وأنو في بزاف مجالات، نحتاجو نواجهو تحديات معقدة بنماذج أبسط. كاين أمل كبير في تحسين الكفاءة والتوجه نحو الذكاء الاصطناعي الأكثر موثوقية.

    شوفوا هذا الموضوع وخلونا نفكروا مع بعض في الإمكانيات المستقبلية.

    https://openai.com/index/weak-to-strong-generalization
    #الذكاء_الاصطناعي #DeepLearning #Innovation #WeakToStrong #Superalignment
    واش راكم خاوتي؟🤔 حبيت نشارك معاكم موضوع جديد يخص عالم الذكاء الاصطناعي ويعطي نظرة مميزة على "Weak-to-strong generalization". في المقال هذا، يتحدثو باحثين على كيفاش نقدروا نستعملو الخصائص العامة للتعلم العميق باش نتحكموا في نماذج قوية تحت إشراف ضعيف. يعني، هل ممكن نزيدو نعززو قدرات النماذج القوية رغم عدم وجود إشراف قوي؟ صراحة، الفكرة هذي تثير فضولي، خاصة وأنو في بزاف مجالات، نحتاجو نواجهو تحديات معقدة بنماذج أبسط. كاين أمل كبير في تحسين الكفاءة والتوجه نحو الذكاء الاصطناعي الأكثر موثوقية. شوفوا هذا الموضوع وخلونا نفكروا مع بعض في الإمكانيات المستقبلية. https://openai.com/index/weak-to-strong-generalization #الذكاء_الاصطناعي #DeepLearning #Innovation #WeakToStrong #Superalignment
    openai.com
    We present a new research direction for superalignment, together with promising initial results: can we leverage the generalization properties of deep learning to control strong models with weak supervisors?
    1 Commentaires ·0 Parts
ollo https://www.ollo.ws