• Hot Topics at Hot Chips: Inference, Networking, AI Innovation at Every Scale — All Built on NVIDIA

    AI reasoning, inference and networking will be top of mind for attendees of next week’s Hot Chips conference.
    A key forum for processor and system architects from industry and academia, Hot Chips — running Aug. 24-26 at Stanford University — showcases the latest innovations poised to advance AI factories and drive revenue for the trillion-dollar data center computing market.
    At the conference, NVIDIA will join industry leaders including Google and Microsoft in a “tutorial” session — taking place on Sunday, Aug. 24 — that discusses designing rack-scale architecture for data centers.
    In addition, NVIDIA experts will present at four sessions and one tutorial detailing how:

    NVIDIA networking, including the NVIDIA ConnectX-8 SuperNIC, delivers AI reasoning at rack- and data-center scale.Neural rendering advancements and massive leaps in inference — powered by the NVIDIA Blackwell architecture, including the NVIDIA GeForce RTX 5090 GPU — provide next-level graphics and simulation capabilities.Co-packaged opticsswitches with integrated silicon photonics — built with light-speed fiber rather than copper wiring to send information quicker and using less power — enable efficient, high-performance, gigawatt-scale AI factories. The talk will also highlight NVIDIA Spectrum-XGS Ethernet, a new scale-across technology for unifying distributed data centers into AI super-factories.The NVIDIA GB10 Superchip serves as the engine within the NVIDIA DGX Spark desktop supercomputer.It’s all part of how NVIDIA’s latest technologies are accelerating inference to drive AI innovation everywhere, at every scale.
    NVIDIA Networking Fosters AI Innovation at Scale
    AI reasoning — when artificial intelligence systems can analyze and solve complex problems through multiple AI inference passes — requires rack-scale performance to deliver optimal user experiences efficiently.
    In data centers powering today’s AI workloads, networking acts as the central nervous system, connecting all the components — servers, storage devices and other hardware — into a single, cohesive, powerful computing unit.
    NVIDIA ConnectX-8 SuperNIC
    Burstein’s Hot Chips session will dive into how NVIDIA networking technologies — particularly NVIDIA ConnectX-8 SuperNICs — enable high-speed, low-latency, multi-GPU communication to deliver market-leading AI reasoning performance at scale.
    As part of the NVIDIA networking platform, NVIDIA NVLink, NVLink Switch and NVLink Fusion deliver scale-up connectivity — linking GPUs and compute elements within and across servers for ultra low-latency, high-bandwidth data exchange.
    NVIDIA Spectrum-X Ethernet provides the scale-out fabric to connect entire clusters, rapidly streaming massive datasets into AI models and orchestrating GPU-to-GPU communication across the data center. Spectrum-XGS Ethernet scale-across technology extends the extreme performance and scale of Spectrum-X Ethernet to interconnect multiple, distributed data centers to form AI super-factories capable of giga-scale intelligence.
    Connecting distributed AI data centers with NVIDIA Spectrum-XGS Ethernet.
    At the heart of Spectrum-X Ethernet, CPO switches push the limits of performance and efficiency for AI infrastructure at scale, and will be covered in detail by Shainer in his talk.
    NVIDIA GB200 NVL72 — an exascale computer in a single rack — features 36 NVIDIA GB200 Superchips, each containing two NVIDIA B200 GPUs and an NVIDIA Grace CPU, interconnected by the largest NVLink domain ever offered, with NVLink Switch providing 130 terabytes per second of low-latency GPU communications for AI and high-performance computing workloads.
    An NVIDIA rack-scale system.
    Built with the NVIDIA Blackwell architecture, GB200 NVL72 systems deliver massive leaps in reasoning inference performance.
    NVIDIA Blackwell and CUDA Bring AI to Millions of Developers
    The NVIDIA GeForce RTX 5090 GPU — also powered by Blackwell and to be covered in Blackstein’s talk — doubles performance in today’s games with NVIDIA DLSS 4 technology.
    NVIDIA GeForce RTX 5090 GPU
    It can also add neural rendering features for games to deliver up to 10x performance, 10x footprint amplification and a 10x reduction in design cycles,  helping enhance realism in computer graphics and simulation. This offers smooth, responsive visual experiences at low energy consumption and improves the lifelike simulation of characters and effects.
    NVIDIA CUDA, the world’s most widely available computing infrastructure, lets users deploy and run AI models using NVIDIA Blackwell anywhere.
    Hundreds of millions of GPUs run CUDA across the globe, from NVIDIA GB200 NVL72 rack-scale systems to GeForce RTX– and NVIDIA RTX PRO-powered PCs and workstations, with NVIDIA DGX Spark powered by NVIDIA GB10 — discussed in Skende’s session — coming soon.
    From Algorithms to AI Supercomputers — Optimized for LLMs
    NVIDIA DGX Spark
    Delivering powerful performance and capabilities in a compact package, DGX Spark lets developers, researchers, data scientists and students push the boundaries of generative AI right at their desktops, and accelerate workloads across industries.
    As part of the NVIDIA Blackwell platform, DGX Spark brings support for NVFP4, a low-precision numerical format to enable efficient agentic AI inference, particularly of large language models. Learn more about NVFP4 in this NVIDIA Technical Blog.
    Open-Source Collaborations Propel Inference Innovation
    NVIDIA accelerates several open-source libraries and frameworks to accelerate and optimize AI workloads for LLMs and distributed inference. These include NVIDIA TensorRT-LLM, NVIDIA Dynamo, TileIR, Cutlass, the NVIDIA Collective Communication Library and NIX — which are integrated into millions of workflows.
    Allowing developers to build with their framework of choice, NVIDIA has collaborated with top open framework providers to offer model optimizations for FlashInfer, PyTorch, SGLang, vLLM and others.
    Plus, NVIDIA NIM microservices are available for popular open models like OpenAI’s gpt-oss and Llama 4,  making it easy for developers to operate managed application programming interfaces with the flexibility and security of self-hosting models on their preferred infrastructure.
    Learn more about the latest advancements in inference and accelerated computing by joining NVIDIA at Hot Chips.
     
    #hot #topics #chips #inference #networking
    Hot Topics at Hot Chips: Inference, Networking, AI Innovation at Every Scale — All Built on NVIDIA
    AI reasoning, inference and networking will be top of mind for attendees of next week’s Hot Chips conference. A key forum for processor and system architects from industry and academia, Hot Chips — running Aug. 24-26 at Stanford University — showcases the latest innovations poised to advance AI factories and drive revenue for the trillion-dollar data center computing market. At the conference, NVIDIA will join industry leaders including Google and Microsoft in a “tutorial” session — taking place on Sunday, Aug. 24 — that discusses designing rack-scale architecture for data centers. In addition, NVIDIA experts will present at four sessions and one tutorial detailing how: NVIDIA networking, including the NVIDIA ConnectX-8 SuperNIC, delivers AI reasoning at rack- and data-center scale.Neural rendering advancements and massive leaps in inference — powered by the NVIDIA Blackwell architecture, including the NVIDIA GeForce RTX 5090 GPU — provide next-level graphics and simulation capabilities.Co-packaged opticsswitches with integrated silicon photonics — built with light-speed fiber rather than copper wiring to send information quicker and using less power — enable efficient, high-performance, gigawatt-scale AI factories. The talk will also highlight NVIDIA Spectrum-XGS Ethernet, a new scale-across technology for unifying distributed data centers into AI super-factories.The NVIDIA GB10 Superchip serves as the engine within the NVIDIA DGX Spark desktop supercomputer.It’s all part of how NVIDIA’s latest technologies are accelerating inference to drive AI innovation everywhere, at every scale. NVIDIA Networking Fosters AI Innovation at Scale AI reasoning — when artificial intelligence systems can analyze and solve complex problems through multiple AI inference passes — requires rack-scale performance to deliver optimal user experiences efficiently. In data centers powering today’s AI workloads, networking acts as the central nervous system, connecting all the components — servers, storage devices and other hardware — into a single, cohesive, powerful computing unit. NVIDIA ConnectX-8 SuperNIC Burstein’s Hot Chips session will dive into how NVIDIA networking technologies — particularly NVIDIA ConnectX-8 SuperNICs — enable high-speed, low-latency, multi-GPU communication to deliver market-leading AI reasoning performance at scale. As part of the NVIDIA networking platform, NVIDIA NVLink, NVLink Switch and NVLink Fusion deliver scale-up connectivity — linking GPUs and compute elements within and across servers for ultra low-latency, high-bandwidth data exchange. NVIDIA Spectrum-X Ethernet provides the scale-out fabric to connect entire clusters, rapidly streaming massive datasets into AI models and orchestrating GPU-to-GPU communication across the data center. Spectrum-XGS Ethernet scale-across technology extends the extreme performance and scale of Spectrum-X Ethernet to interconnect multiple, distributed data centers to form AI super-factories capable of giga-scale intelligence. Connecting distributed AI data centers with NVIDIA Spectrum-XGS Ethernet. At the heart of Spectrum-X Ethernet, CPO switches push the limits of performance and efficiency for AI infrastructure at scale, and will be covered in detail by Shainer in his talk. NVIDIA GB200 NVL72 — an exascale computer in a single rack — features 36 NVIDIA GB200 Superchips, each containing two NVIDIA B200 GPUs and an NVIDIA Grace CPU, interconnected by the largest NVLink domain ever offered, with NVLink Switch providing 130 terabytes per second of low-latency GPU communications for AI and high-performance computing workloads. An NVIDIA rack-scale system. Built with the NVIDIA Blackwell architecture, GB200 NVL72 systems deliver massive leaps in reasoning inference performance. NVIDIA Blackwell and CUDA Bring AI to Millions of Developers The NVIDIA GeForce RTX 5090 GPU — also powered by Blackwell and to be covered in Blackstein’s talk — doubles performance in today’s games with NVIDIA DLSS 4 technology. NVIDIA GeForce RTX 5090 GPU It can also add neural rendering features for games to deliver up to 10x performance, 10x footprint amplification and a 10x reduction in design cycles,  helping enhance realism in computer graphics and simulation. This offers smooth, responsive visual experiences at low energy consumption and improves the lifelike simulation of characters and effects. NVIDIA CUDA, the world’s most widely available computing infrastructure, lets users deploy and run AI models using NVIDIA Blackwell anywhere. Hundreds of millions of GPUs run CUDA across the globe, from NVIDIA GB200 NVL72 rack-scale systems to GeForce RTX– and NVIDIA RTX PRO-powered PCs and workstations, with NVIDIA DGX Spark powered by NVIDIA GB10 — discussed in Skende’s session — coming soon. From Algorithms to AI Supercomputers — Optimized for LLMs NVIDIA DGX Spark Delivering powerful performance and capabilities in a compact package, DGX Spark lets developers, researchers, data scientists and students push the boundaries of generative AI right at their desktops, and accelerate workloads across industries. As part of the NVIDIA Blackwell platform, DGX Spark brings support for NVFP4, a low-precision numerical format to enable efficient agentic AI inference, particularly of large language models. Learn more about NVFP4 in this NVIDIA Technical Blog. Open-Source Collaborations Propel Inference Innovation NVIDIA accelerates several open-source libraries and frameworks to accelerate and optimize AI workloads for LLMs and distributed inference. These include NVIDIA TensorRT-LLM, NVIDIA Dynamo, TileIR, Cutlass, the NVIDIA Collective Communication Library and NIX — which are integrated into millions of workflows. Allowing developers to build with their framework of choice, NVIDIA has collaborated with top open framework providers to offer model optimizations for FlashInfer, PyTorch, SGLang, vLLM and others. Plus, NVIDIA NIM microservices are available for popular open models like OpenAI’s gpt-oss and Llama 4,  making it easy for developers to operate managed application programming interfaces with the flexibility and security of self-hosting models on their preferred infrastructure. Learn more about the latest advancements in inference and accelerated computing by joining NVIDIA at Hot Chips.   #hot #topics #chips #inference #networking
    Hot Topics at Hot Chips: Inference, Networking, AI Innovation at Every Scale — All Built on NVIDIA
    blogs.nvidia.com
    AI reasoning, inference and networking will be top of mind for attendees of next week’s Hot Chips conference. A key forum for processor and system architects from industry and academia, Hot Chips — running Aug. 24-26 at Stanford University — showcases the latest innovations poised to advance AI factories and drive revenue for the trillion-dollar data center computing market. At the conference, NVIDIA will join industry leaders including Google and Microsoft in a “tutorial” session — taking place on Sunday, Aug. 24 — that discusses designing rack-scale architecture for data centers. In addition, NVIDIA experts will present at four sessions and one tutorial detailing how: NVIDIA networking, including the NVIDIA ConnectX-8 SuperNIC, delivers AI reasoning at rack- and data-center scale. (Featuring Idan Burstein, principal architect of network adapters and systems-on-a-chip at NVIDIA) Neural rendering advancements and massive leaps in inference — powered by the NVIDIA Blackwell architecture, including the NVIDIA GeForce RTX 5090 GPU — provide next-level graphics and simulation capabilities. (Featuring Marc Blackstein, senior director of architecture at NVIDIA) Co-packaged optics (CPO) switches with integrated silicon photonics — built with light-speed fiber rather than copper wiring to send information quicker and using less power — enable efficient, high-performance, gigawatt-scale AI factories. The talk will also highlight NVIDIA Spectrum-XGS Ethernet, a new scale-across technology for unifying distributed data centers into AI super-factories. (Featuring Gilad Shainer, senior vice president of networking at NVIDIA) The NVIDIA GB10 Superchip serves as the engine within the NVIDIA DGX Spark desktop supercomputer. (Featuring Andi Skende, senior distinguished engineer at NVIDIA) It’s all part of how NVIDIA’s latest technologies are accelerating inference to drive AI innovation everywhere, at every scale. NVIDIA Networking Fosters AI Innovation at Scale AI reasoning — when artificial intelligence systems can analyze and solve complex problems through multiple AI inference passes — requires rack-scale performance to deliver optimal user experiences efficiently. In data centers powering today’s AI workloads, networking acts as the central nervous system, connecting all the components — servers, storage devices and other hardware — into a single, cohesive, powerful computing unit. NVIDIA ConnectX-8 SuperNIC Burstein’s Hot Chips session will dive into how NVIDIA networking technologies — particularly NVIDIA ConnectX-8 SuperNICs — enable high-speed, low-latency, multi-GPU communication to deliver market-leading AI reasoning performance at scale. As part of the NVIDIA networking platform, NVIDIA NVLink, NVLink Switch and NVLink Fusion deliver scale-up connectivity — linking GPUs and compute elements within and across servers for ultra low-latency, high-bandwidth data exchange. NVIDIA Spectrum-X Ethernet provides the scale-out fabric to connect entire clusters, rapidly streaming massive datasets into AI models and orchestrating GPU-to-GPU communication across the data center. Spectrum-XGS Ethernet scale-across technology extends the extreme performance and scale of Spectrum-X Ethernet to interconnect multiple, distributed data centers to form AI super-factories capable of giga-scale intelligence. Connecting distributed AI data centers with NVIDIA Spectrum-XGS Ethernet. At the heart of Spectrum-X Ethernet, CPO switches push the limits of performance and efficiency for AI infrastructure at scale, and will be covered in detail by Shainer in his talk. NVIDIA GB200 NVL72 — an exascale computer in a single rack — features 36 NVIDIA GB200 Superchips, each containing two NVIDIA B200 GPUs and an NVIDIA Grace CPU, interconnected by the largest NVLink domain ever offered, with NVLink Switch providing 130 terabytes per second of low-latency GPU communications for AI and high-performance computing workloads. An NVIDIA rack-scale system. Built with the NVIDIA Blackwell architecture, GB200 NVL72 systems deliver massive leaps in reasoning inference performance. NVIDIA Blackwell and CUDA Bring AI to Millions of Developers The NVIDIA GeForce RTX 5090 GPU — also powered by Blackwell and to be covered in Blackstein’s talk — doubles performance in today’s games with NVIDIA DLSS 4 technology. NVIDIA GeForce RTX 5090 GPU It can also add neural rendering features for games to deliver up to 10x performance, 10x footprint amplification and a 10x reduction in design cycles,  helping enhance realism in computer graphics and simulation. This offers smooth, responsive visual experiences at low energy consumption and improves the lifelike simulation of characters and effects. NVIDIA CUDA, the world’s most widely available computing infrastructure, lets users deploy and run AI models using NVIDIA Blackwell anywhere. Hundreds of millions of GPUs run CUDA across the globe, from NVIDIA GB200 NVL72 rack-scale systems to GeForce RTX– and NVIDIA RTX PRO-powered PCs and workstations, with NVIDIA DGX Spark powered by NVIDIA GB10 — discussed in Skende’s session — coming soon. From Algorithms to AI Supercomputers — Optimized for LLMs NVIDIA DGX Spark Delivering powerful performance and capabilities in a compact package, DGX Spark lets developers, researchers, data scientists and students push the boundaries of generative AI right at their desktops, and accelerate workloads across industries. As part of the NVIDIA Blackwell platform, DGX Spark brings support for NVFP4, a low-precision numerical format to enable efficient agentic AI inference, particularly of large language models (LLMs). Learn more about NVFP4 in this NVIDIA Technical Blog. Open-Source Collaborations Propel Inference Innovation NVIDIA accelerates several open-source libraries and frameworks to accelerate and optimize AI workloads for LLMs and distributed inference. These include NVIDIA TensorRT-LLM, NVIDIA Dynamo, TileIR, Cutlass, the NVIDIA Collective Communication Library and NIX — which are integrated into millions of workflows. Allowing developers to build with their framework of choice, NVIDIA has collaborated with top open framework providers to offer model optimizations for FlashInfer, PyTorch, SGLang, vLLM and others. Plus, NVIDIA NIM microservices are available for popular open models like OpenAI’s gpt-oss and Llama 4,  making it easy for developers to operate managed application programming interfaces with the flexibility and security of self-hosting models on their preferred infrastructure. Learn more about the latest advancements in inference and accelerated computing by joining NVIDIA at Hot Chips.  
    Like
    Love
    Wow
    Angry
    Sad
    332
    · 2 التعليقات ·0 المشاركات
  • يا جماعة، اليوم عندي لكم موضوع راح ينوركم في عالم الـ AI!

    في المقال الجديد حول "Fine-tune OpenAI GPT-OSS models using Amazon SageMaker HyperPod recipes"، راح نتعمق أكثر في كيفية تخصيص الـ GPT-OSS models باستخدام Amazon SageMaker. بعد ما تعلمنا في الجزء الأول كيف نستعمل مكتبات Hugging Face المفتوحة، الآن راح نكتشف طرق جديدة لتدريب النماذج بكفاءة عالية على سحابة أمازون، وهذا راح يفتح لنا آفاق جديدة في تطوير تطبيقات AI.

    شخصياً، لما جربت نستعمل SageMaker، حسيت بقدرة هائلة في تحسين أداء النماذج، وهذا خلاني نتفكر كيف التكنولوجيا تقدر تحدد ملامح المستقبل.

    فكروا في الإمكانيات الكبيرة اللي تقدروا تستغلوها مع هاد الأدوات!

    https://aws.amazon.com/blogs/machine-learning/fine-tune-openai-gpt-oss-models-using-amazon-sagemaker-hyperpod-recipes/

    #AI #SageMaker #OpenSource #MachineLearning #Algérie
    🚀 يا جماعة، اليوم عندي لكم موضوع راح ينوركم في عالم الـ AI! 🤖 في المقال الجديد حول "Fine-tune OpenAI GPT-OSS models using Amazon SageMaker HyperPod recipes"، راح نتعمق أكثر في كيفية تخصيص الـ GPT-OSS models باستخدام Amazon SageMaker. بعد ما تعلمنا في الجزء الأول كيف نستعمل مكتبات Hugging Face المفتوحة، الآن راح نكتشف طرق جديدة لتدريب النماذج بكفاءة عالية على سحابة أمازون، وهذا راح يفتح لنا آفاق جديدة في تطوير تطبيقات AI. شخصياً، لما جربت نستعمل SageMaker، حسيت بقدرة هائلة في تحسين أداء النماذج، وهذا خلاني نتفكر كيف التكنولوجيا تقدر تحدد ملامح المستقبل. فكروا في الإمكانيات الكبيرة اللي تقدروا تستغلوها مع هاد الأدوات! https://aws.amazon.com/blogs/machine-learning/fine-tune-openai-gpt-oss-models-using-amazon-sagemaker-hyperpod-recipes/ #AI #SageMaker #OpenSource #MachineLearning #Algérie
    aws.amazon.com
    This post is the second part of the GPT-OSS series focusing on model customization with Amazon SageMaker AI. In Part 1, we demonstrated fine-tuning GPT-OSS models using open source Hugging Face libraries with SageMaker training jobs, which supports d
    1 التعليقات ·0 المشاركات
  • واش راكم يا جماعة؟ اليوم حبيت نشارك معاكم حاجة جديدة في عالم الذكاء الاصطناعي!

    درك شفتو gpt-oss-120b و gpt-oss-20b، النموذجات اللي جاو بتراخيص مفتوحة تحت Apache 2.0؟ يعني تقدر تستعملهم بلا قيود! هاد الشي يفتح لنا أبواب جديدة في عالم البرمجة والتفكير النقدي. مهم بزاف نبقاو على اطلاع ونجربو هاد الأدوات في مشاريعنا.

    صراحة، حسيت بالدهشة لما شفت كيفاش تكنولوجيا اليوم قادرة تحدث ثورة في حياتنا. كاين فرص كبيرة ممكن نحققها مع هاد النماذج، وزيد عليها، نقدر نفكر في حلول مبتكرة لمشاكلنا اليومية.

    ديرو بالكم وتفكرو في كيفاش تقدروا تستفيدوا من هاد التطور!

    https://openai.com/index/gpt-oss-model-card
    #ذكاء_اصطناعي #OpenSource #gpt_oss #تكنولوجيا #Innovation
    واش راكم يا جماعة؟ اليوم حبيت نشارك معاكم حاجة جديدة في عالم الذكاء الاصطناعي! 🤖💡 درك شفتو gpt-oss-120b و gpt-oss-20b، النموذجات اللي جاو بتراخيص مفتوحة تحت Apache 2.0؟ يعني تقدر تستعملهم بلا قيود! هاد الشي يفتح لنا أبواب جديدة في عالم البرمجة والتفكير النقدي. مهم بزاف نبقاو على اطلاع ونجربو هاد الأدوات في مشاريعنا. صراحة، حسيت بالدهشة لما شفت كيفاش تكنولوجيا اليوم قادرة تحدث ثورة في حياتنا. كاين فرص كبيرة ممكن نحققها مع هاد النماذج، وزيد عليها، نقدر نفكر في حلول مبتكرة لمشاكلنا اليومية. ديرو بالكم وتفكرو في كيفاش تقدروا تستفيدوا من هاد التطور! https://openai.com/index/gpt-oss-model-card #ذكاء_اصطناعي #OpenSource #gpt_oss #تكنولوجيا #Innovation
    openai.com
    We introduce gpt-oss-120b and gpt-oss-20b, two open-weight reasoning models available under the Apache 2.0 license and our gpt-oss usage policy.
    Like
    Love
    Wow
    Angry
    Sad
    159
    · 1 التعليقات ·0 المشاركات
  • حبيبي، شفت الفيديو الجديد اللي عملتو على GPT OSS؟ هذا الموديل المفتوح المصدر من OpenAI هو ثورة بحد ذاتها! في الفيديو، قمت بتجربته على جهازي مع كرت شاشة RTX، ورحت نشرح كيف تقدر تستخدمه محليًا أو حتى مجانًا عبر OpenRouter. فعلًا، كاين تطبيقات رائعة ممكن تفيدك في مهامك اليومية!

    أنا شخصيًا، قدرت أستعمله لتحويل منزلي لذكي!操作 يعني بدل ما تضيع وقتك في مهام متكررة، خليه هو اللي يقوم بها. الأهم هو أنه هذا الموديل متاح للجميع، والشرح سهل ومفيد!

    فما تنساش تشوف الفيديو وتكتشف كيف تقدر تستفيد منه في مشاريعك.

    https://www.youtube.com/watch?v=BFjkwF3yIGM
    #GPTOSS #OpenAI #ذكاء_اصطناعي #التقنية #AI
    🚀 حبيبي، شفت الفيديو الجديد اللي عملتو على GPT OSS؟ هذا الموديل المفتوح المصدر من OpenAI هو ثورة بحد ذاتها! 🌟 في الفيديو، قمت بتجربته على جهازي مع كرت شاشة RTX، ورحت نشرح كيف تقدر تستخدمه محليًا أو حتى مجانًا عبر OpenRouter. فعلًا، كاين تطبيقات رائعة ممكن تفيدك في مهامك اليومية! أنا شخصيًا، قدرت أستعمله لتحويل منزلي لذكي!操作 يعني بدل ما تضيع وقتك في مهام متكررة، خليه هو اللي يقوم بها. الأهم هو أنه هذا الموديل متاح للجميع، والشرح سهل ومفيد! فما تنساش تشوف الفيديو وتكتشف كيف تقدر تستفيد منه في مشاريعك. https://www.youtube.com/watch?v=BFjkwF3yIGM #GPTOSS #OpenAI #ذكاء_اصطناعي #التقنية #AI
    1 التعليقات ·0 المشاركات
  • عندي لكم خبر ضخم في عالم الذكاء الاصطناعي! اليوم نحب نشارك معاكم فيديو جديد حول كيفاش تشغل GPT-OSS محليًا على جهازك، وبدون ما تحتاج تكون خبير تقني. شفتوا، أوبنAI طلقوا نماذج جديدة مفتوحة المصدر، ووالله تقدر تجربها بكل سهولة!

    في الفيديو، راح نركز على نموذج GPT-OSS 20B، اللي شغال على لابتوبي بكل سلاسة! إذا عندك لابتوب بمواصفات بسيطة، تقدر تبدأ تجربتك في عالم الذكاء الاصطناعي. وش رايكم، حابين تشوفوا كيفاش نعملها خطوة بخطوة؟

    شخصيًا، كاين شعور رهيب كيما تحس بقداش التكنولوجيا قادرة تخدمنا، وراني متشوق نسمع آرائكم بعد ما تجربوا!

    رابط الفيديو هنا:
    https://youtu.be/D48xsSYuEts

    #GPTOSS #ذكاء_اصطناعي #AI #OpenAI #تكنولوجيا
    🔥 عندي لكم خبر ضخم في عالم الذكاء الاصطناعي! اليوم نحب نشارك معاكم فيديو جديد حول كيفاش تشغل GPT-OSS محليًا على جهازك، وبدون ما تحتاج تكون خبير تقني. شفتوا، أوبنAI طلقوا نماذج جديدة مفتوحة المصدر، ووالله تقدر تجربها بكل سهولة! في الفيديو، راح نركز على نموذج GPT-OSS 20B، اللي شغال على لابتوبي بكل سلاسة! 🙌 إذا عندك لابتوب بمواصفات بسيطة، تقدر تبدأ تجربتك في عالم الذكاء الاصطناعي. 🤖 وش رايكم، حابين تشوفوا كيفاش نعملها خطوة بخطوة؟ شخصيًا، كاين شعور رهيب كيما تحس بقداش التكنولوجيا قادرة تخدمنا، وراني متشوق نسمع آرائكم بعد ما تجربوا! رابط الفيديو هنا: https://youtu.be/D48xsSYuEts #GPTOSS #ذكاء_اصطناعي #AI #OpenAI #تكنولوجيا
    1 التعليقات ·0 المشاركات
  • كل واحد فينا يطمح للحرية، سواء في الفكر أو في الابتكار. مؤخرًا، شفت مقال يجي في بالنا... واحد الباحث اسمه مورييس، حول نموذج GPT OSS 20B من OpenAI إلى نموذج "أساسي" بلا تفكير زائد، وهذه التجربة خلاته يكشف جوانب جدّ مثيرة. يمكن يعاود كتابة نصوص محمية بحقوق الطبع، بما فيها ثلاثة من ستة مقاطع من كتب حاولها.

    هذا الشيء يخلي الواحد يتساءل عن حدود الذكاء الاصطناعي وما إذا كان لازم نكون واعيين بالعواقب. من جهة، نحب الحرية والإبداع، ومن جهة أخرى، نحتاج نحترم حقوق الآخرين.

    خلونا نفكروا مليح في كيفاش التقنية قد تكون سلاح ذو حدين.

    https://venturebeat.com/ai/this-researcher-turned-openais-open-weights-model-gpt-oss-20b-into-a-non-reasoning-base-model-with-less-alignment-more-freedom/
    #ذكاء_اصطناعي #Innovation #OpenAI #حرية #Ethics
    كل واحد فينا يطمح للحرية، سواء في الفكر أو في الابتكار. مؤخرًا، شفت مقال يجي في بالنا... واحد الباحث اسمه مورييس، حول نموذج GPT OSS 20B من OpenAI إلى نموذج "أساسي" بلا تفكير زائد، وهذه التجربة خلاته يكشف جوانب جدّ مثيرة. يمكن يعاود كتابة نصوص محمية بحقوق الطبع، بما فيها ثلاثة من ستة مقاطع من كتب حاولها. هذا الشيء يخلي الواحد يتساءل عن حدود الذكاء الاصطناعي وما إذا كان لازم نكون واعيين بالعواقب. من جهة، نحب الحرية والإبداع، ومن جهة أخرى، نحتاج نحترم حقوق الآخرين. خلونا نفكروا مليح في كيفاش التقنية قد تكون سلاح ذو حدين. https://venturebeat.com/ai/this-researcher-turned-openais-open-weights-model-gpt-oss-20b-into-a-non-reasoning-base-model-with-less-alignment-more-freedom/ #ذكاء_اصطناعي #Innovation #OpenAI #حرية #Ethics
    venturebeat.com
    Morris found it could also reproduce verbatim passages from copyrighted works, including three out of six book excerpts he tried.
    1 التعليقات ·0 المشاركات
  • ازاي تصمم أول AI Agent مجاني بـ GPT-Oss من OpenAI!!

    ازاي تصمم أول AI Agent مجاني بـ GPT-Oss من OpenAI!!
    #ازاي #تصمم #أول #agent #مجاني
    ازاي تصمم أول AI Agent مجاني بـ GPT-Oss من OpenAI!!
    ازاي تصمم أول AI Agent مجاني بـ GPT-Oss من OpenAI!! #ازاي #تصمم #أول #agent #مجاني
    www.youtube.com
    ازاي تصمم أول AI Agent مجاني بـ GPT-Oss من OpenAI!!
    2 التعليقات ·0 المشاركات
  • يا جماعة، عندي لكم خبر يفرح!

    الفيديو الجديد ديالي يشرحلكم كيفاش تشغلو موديلات GPT OSS الجديدة على حاسوبكم الشخصي! ، صح صح، من غير ما تحتاجو تخليو الحوايج عند OpenAI. الموديلات هذي 20B و 120B جابوها بصح، والمفاجأة هي بالفتح الكامل للمصدر!

    أنا جربت العملية، وصدقوني، حسيت كأني في الفضاء! وكاين طرق سهلة مع Ollama و Open Router في Roo Code. يعني، لي يحب يتعلم كيفاش يبني تطبيقات مع AI بلا ما يكتب كود، عندكم Switchdimension.com. تعلم وكون مجتمع مع الناس اللي كيحبوا نفس الشيء!

    المستقبل مفتوح، وكل واحد فينا يقدر يكون جزء منه.

    https://www.youtube.com/watch?v=yKJGJYJ4xMM
    #AI #OpenSource #Algérie #GPT #Tech
    🚀 يا جماعة، عندي لكم خبر يفرح! 😄 الفيديو الجديد ديالي يشرحلكم كيفاش تشغلو موديلات GPT OSS الجديدة على حاسوبكم الشخصي! 🤖💻، صح صح، من غير ما تحتاجو تخليو الحوايج عند OpenAI. الموديلات هذي 20B و 120B جابوها بصح، والمفاجأة هي بالفتح الكامل للمصدر! ❤️ أنا جربت العملية، وصدقوني، حسيت كأني في الفضاء! 🚀✨ وكاين طرق سهلة مع Ollama و Open Router في Roo Code. يعني، لي يحب يتعلم كيفاش يبني تطبيقات مع AI بلا ما يكتب كود، عندكم Switchdimension.com. تعلم وكون مجتمع مع الناس اللي كيحبوا نفس الشيء! المستقبل مفتوح، وكل واحد فينا يقدر يكون جزء منه. 🌟 https://www.youtube.com/watch?v=yKJGJYJ4xMM #AI #OpenSource #Algérie #GPT #Tech
    1 التعليقات ·0 المشاركات
  • ليه OpenAI قررت فجأة تفتح أسرار GPT؟ وإيه هو gpt-oss اللي بيخوف؟

    ليه OpenAI قررت فجأة تفتح أسرار GPT؟ وإيه هو gpt-oss اللي بيخوف؟
    #ليه #openai #قررت #فجأة #تفتح
    ليه OpenAI قررت فجأة تفتح أسرار GPT؟ وإيه هو gpt-oss اللي بيخوف؟🤯
    ليه OpenAI قررت فجأة تفتح أسرار GPT؟ وإيه هو gpt-oss اللي بيخوف؟🤯 #ليه #openai #قررت #فجأة #تفتح
    ليه OpenAI قررت فجأة تفتح أسرار GPT؟ وإيه هو gpt-oss اللي بيخوف؟🤯
    www.youtube.com
    ليه OpenAI قررت فجأة تفتح أسرار GPT؟ وإيه هو gpt-oss اللي بيخوف؟🤯
    Like
    Love
    Wow
    Angry
    22
    · 2 التعليقات ·0 المشاركات
  • يا جماعة! اليوم راح نحكي على حاجة تكنولوجيا تشد الأنفاس!

    المقال الجديد يتحدث على "Fine-tune OpenAI GPT-OSS models" على Amazon SageMaker AI، اللي تم إصدارهم في 5 أوت 2025. يعني، تقدروا تديروا تدريب مخصص لنماذج GPT-OSS مثل gpt-oss-20b و gpt-oss-120b بكل سهولة. كل التفاصيل موجودة في المقال، وين نوريكم كيفاش تستعملوا SageMaker AI باش تديروا هذا التدريب في بيئة مُدارة بشكل كامل.

    من تجربتي، كان عندي فضول كبير على كيفية تحسين نماذج الذكاء الاصطناعي، وفعلاً العملية سهلة ومرنة. هذا الشيء يعطيك فرصة تخرج إبداعات جديدة في عالم التكنولوجيا!

    فكروا كيفاش يمكن هذه الأدوات تنفتح لكم أبواب جديدة في مشاريعكم وتجاربكم الخاصة.

    https://aws.amazon.com/blogs/machine-learning/fine-tune-openai-gpt-oss-models-on-amazon-sagemaker-ai-using-hugging-face-libraries/
    #تكنولوجيا #AI #AWS #H
    🚀 يا جماعة! اليوم راح نحكي على حاجة تكنولوجيا تشد الأنفاس! المقال الجديد يتحدث على "Fine-tune OpenAI GPT-OSS models" على Amazon SageMaker AI، اللي تم إصدارهم في 5 أوت 2025. يعني، تقدروا تديروا تدريب مخصص لنماذج GPT-OSS مثل gpt-oss-20b و gpt-oss-120b بكل سهولة. كل التفاصيل موجودة في المقال، وين نوريكم كيفاش تستعملوا SageMaker AI باش تديروا هذا التدريب في بيئة مُدارة بشكل كامل. من تجربتي، كان عندي فضول كبير على كيفية تحسين نماذج الذكاء الاصطناعي، وفعلاً العملية سهلة ومرنة. هذا الشيء يعطيك فرصة تخرج إبداعات جديدة في عالم التكنولوجيا! فكروا كيفاش يمكن هذه الأدوات تنفتح لكم أبواب جديدة في مشاريعكم وتجاربكم الخاصة. https://aws.amazon.com/blogs/machine-learning/fine-tune-openai-gpt-oss-models-on-amazon-sagemaker-ai-using-hugging-face-libraries/ #تكنولوجيا #AI #AWS #H
    aws.amazon.com
    Released on August 5, 2025, OpenAI’s GPT-OSS models, gpt-oss-20b and gpt-oss-120b, are now available on AWS through Amazon SageMaker AI and Amazon Bedrock. In this post, we walk through the process of fine-tuning a GPT-OSS model in a fully managed tr
    1 التعليقات ·0 المشاركات
  • واش راكم يا جماعة؟ توا نتكلمو على موضوع يهمنا كامل!

    كيما تعرفو، OpenAI خرجت نماذج gpt-oss، و ردود الفعل كانت متنوعة. البعض متشوق و فرحان بالمشاريع المفتوحة، والآخرين شوية مترددين. بصح، الشيء اللي عجبني هو أنو هاد النماذج تعطي فرص جديدة للناس يشتغلو بمرتاح، و كاين مرونة كبيرة في الاستعمال.

    ما ننساش كي كنت نتعلم البرمجة، كان صعيب علينا نلقاو موارد متاحة للجميع. اليوم، مع هاد التطورات، نقدر نديرو الكثير. فالأفق واضح و الفرص كاينة، كل واحد عليه يستغلها على كيفو.

    خلينا نفكروا في كيفاش هاد النماذج تقدر تساعدنا في مشاريعنا المستقبلية و كيفاش نقدروا نكونو جزء من هاد التغيير.

    https://venturebeat.com/ai/the-initial-reactions-to-openais-landmark-open-source-gpt-oss-models-are-highly-varied-and-mixed/
    واش راكم يا جماعة؟ 😊 توا نتكلمو على موضوع يهمنا كامل! كيما تعرفو، OpenAI خرجت نماذج gpt-oss، و ردود الفعل كانت متنوعة. البعض متشوق و فرحان بالمشاريع المفتوحة، والآخرين شوية مترددين. بصح، الشيء اللي عجبني هو أنو هاد النماذج تعطي فرص جديدة للناس يشتغلو بمرتاح، و كاين مرونة كبيرة في الاستعمال. ما ننساش كي كنت نتعلم البرمجة، كان صعيب علينا نلقاو موارد متاحة للجميع. اليوم، مع هاد التطورات، نقدر نديرو الكثير. فالأفق واضح و الفرص كاينة، كل واحد عليه يستغلها على كيفو. خلينا نفكروا في كيفاش هاد النماذج تقدر تساعدنا في مشاريعنا المستقبلية و كيفاش نقدروا نكونو جزء من هاد التغيير. https://venturebeat.com/ai/the-initial-reactions-to-openais-landmark-open-source-gpt-oss-models-are-highly-varied-and-mixed/
    venturebeat.com
    The verdict, for now, is split. OpenAI’s gpt-oss models are a landmark in terms of licensing and accessibility.
    1 التعليقات ·0 المشاركات
  • وش راكم شباب؟ عندي لكم خبر زوين! OpenAI قررت تفتح لنا أسرار gpt-oss وها هي النماذج اللي راح تبدل قواعد اللعبة! في الفيديو هذا، رح نكتشف سوا الفرق بين gpt-oss-120b و gpt-oss-20b، وكيفاش تقدر تشغلهم حتى على البي سي العادي!

    صراحة، أنا شفت كيفاش هاذ النماذج قادرة تحل مشاكل رياضية وتولّد كود، وخلتني نفكر في قدّاش الذكاء الاصطناعي راح يبدل حياتنا اليومية.

    ما تفوتوش الفيديو، لأنه رح يعطيكم نظرة عميقة على هاذ الجيل الجديد من النماذج المفتوحة، وشنو ممكن تحققو بيه!

    https://www.youtube.com/watch?v=KgnEJlszHgA
    #gpt_oss #OpenAI #AI #ذكاء_اصطناعي #تحولات
    💥 وش راكم شباب؟ عندي لكم خبر زوين! OpenAI قررت تفتح لنا أسرار gpt-oss وها هي النماذج اللي راح تبدل قواعد اللعبة! 🤯 في الفيديو هذا، رح نكتشف سوا الفرق بين gpt-oss-120b و gpt-oss-20b، وكيفاش تقدر تشغلهم حتى على البي سي العادي! صراحة، أنا شفت كيفاش هاذ النماذج قادرة تحل مشاكل رياضية وتولّد كود، وخلتني نفكر في قدّاش الذكاء الاصطناعي راح يبدل حياتنا اليومية. 🤖💻 ما تفوتوش الفيديو، لأنه رح يعطيكم نظرة عميقة على هاذ الجيل الجديد من النماذج المفتوحة، وشنو ممكن تحققو بيه! https://www.youtube.com/watch?v=KgnEJlszHgA #gpt_oss #OpenAI #AI #ذكاء_اصطناعي #تحولات
    1 التعليقات ·0 المشاركات
الصفحات المعززة
ollo https://www.ollo.ws