• السلام عليكم يا جماعة!

    النهار هذا حبيت نشارك معاكم موضوع مهم بزاف، يتعلق بMIT، الجامعة اللي نعرفوها جميع. المقال يتحدث عن زيادة كبيرة في الضرائب على عائدات MIT، وهذا راح يؤثر على الموارد اللي نحتاجوها لدعم البحث والابتكار والمنح الدراسية. يعني، الموضوع يمس قلب MIT وروحها.

    شخصياً، أنا نعتبر أن كل واحد فينا عندو دور في دعم التعليم والبحث. التجارب اللي عشتها في الجامعة علمتني بلي الاستثمار في التعليم هو استثمار في المستقبل.

    خلينا نفكروا في كيفاش نقدروا نساهموا في الحفاظ على هالمؤسسات اللي تفتح الأبواب للمعرفة والإبداع.

    https://www.technologyreview.com/2025/08/26/1120999/mit-is-worth-fighting-for/

    #MIT #تعليم #بحث #Innovation #InvestInFuture
    🚀 السلام عليكم يا جماعة! النهار هذا حبيت نشارك معاكم موضوع مهم بزاف، يتعلق بMIT، الجامعة اللي نعرفوها جميع. المقال يتحدث عن زيادة كبيرة في الضرائب على عائدات MIT، وهذا راح يؤثر على الموارد اللي نحتاجوها لدعم البحث والابتكار والمنح الدراسية. يعني، الموضوع يمس قلب MIT وروحها. شخصياً، أنا نعتبر أن كل واحد فينا عندو دور في دعم التعليم والبحث. التجارب اللي عشتها في الجامعة علمتني بلي الاستثمار في التعليم هو استثمار في المستقبل. خلينا نفكروا في كيفاش نقدروا نساهموا في الحفاظ على هالمؤسسات اللي تفتح الأبواب للمعرفة والإبداع. https://www.technologyreview.com/2025/08/26/1120999/mit-is-worth-fighting-for/ #MIT #تعليم #بحث #Innovation #InvestInFuture
    www.technologyreview.com
    As I write in late July, we’re contending with a major tax increase on the annual returns from MIT’s endowment as well as other investments and assets. This new tax burden will strain the resources we use to support research, innovation, and student
    Like
    Love
    Wow
    Sad
    Angry
    1K
    · 1 Comments ·0 Shares
  • "الحياة كالماء... نروي بها زرع آخرتنا قبل فوات الأوان!"

    في الفيديو اليوم، الشيخ طاهر ضروي يتكلم على موضوع غاية في الأهمية: "أموالك لن تنفعك بعد الموت". الفكرة واضحة، يا جماعة: كل ما تجمعه من ثروة في الدنيا يدوم لفترة، لكن الاستثمار الحقيقي هو في الآخرة. الشيخ يشاركنا نصائح قيمة حول كيفية استثمار أوقاتنا وأموالنا في الأعمال الصالحة، والاستعداد ليوم الحساب.

    بصراحة، هاذ الموضوع يطرح علينا تساؤلات عميقة على حياتنا اليومية. هل نحن فعلاً نخصص وقت كافي للتفكير في آخرتنا؟ ولا غارقين في دوامة الحياة والتفاصيل اليومية؟

    بالأخير، خلونا نفكر شوي في كل دقيقة نعيشها... هل نستغلها في صالح أنفسنا وأخرتنا؟

    https://www.youtube.com/watch?v=ckuXlOAbvT0
    #استثمر_في_آخرتك #طاهر_ضروي #حياة_وموت #ثروة_حقيقية #InvestInYourHereafter
    💭 "الحياة كالماء... نروي بها زرع آخرتنا قبل فوات الأوان!" في الفيديو اليوم، الشيخ طاهر ضروي يتكلم على موضوع غاية في الأهمية: "أموالك لن تنفعك بعد الموت". 😉 الفكرة واضحة، يا جماعة: كل ما تجمعه من ثروة في الدنيا يدوم لفترة، لكن الاستثمار الحقيقي هو في الآخرة. الشيخ يشاركنا نصائح قيمة حول كيفية استثمار أوقاتنا وأموالنا في الأعمال الصالحة، والاستعداد ليوم الحساب. بصراحة، هاذ الموضوع يطرح علينا تساؤلات عميقة على حياتنا اليومية. هل نحن فعلاً نخصص وقت كافي للتفكير في آخرتنا؟ ولا غارقين في دوامة الحياة والتفاصيل اليومية؟ بالأخير، خلونا نفكر شوي في كل دقيقة نعيشها... هل نستغلها في صالح أنفسنا وأخرتنا؟ https://www.youtube.com/watch?v=ckuXlOAbvT0 #استثمر_في_آخرتك #طاهر_ضروي #حياة_وموت #ثروة_حقيقية #InvestInYourHereafter
    Like
    Love
    Wow
    Angry
    Sad
    1K
    · 1 Comments ·0 Shares
  • يا جماعة، سمعتوا بالخبر اللي راح نقولكم عليه؟ ترامب قرر يخفض 300,000 DOGE هالسنة!

    المقال يتحدث عن القرارات الأخيرة للإدارة الأمريكية، وين كاين تقليصات كبيرة في العملة الرقمية DOGE، وهاد الشي راح يأثر على السوق. كلنا نعرف كيفاش DOGE ولاّت حديث الساعة، وقداش الناس تعلقت بيها، يعني الأخبار هادي لازم نكونوا واعيين بيها.

    من تجربتي الشخصية، كنت حاب نزيد نستثمر في DOGE لكن شفت هاد الأخبار وحسيت بلي لازم نكون حذرين. الأمور تتبدل بسرعة في عالم الكريبتو، وما نعرفوش واش راح يجينا من بعد.

    فكروا مليح في هاد القرارات، لأن كل شيء مرتبط ببعضه!

    https://forbesmiddleeast.com/featured/politics-security/trump-administration-doge-cuts-will-total-300000-this-year-report-says-1

    #DOGE #TrumpAdministration #Cryptocurrency #Investing #اقتصاد
    يا جماعة، سمعتوا بالخبر اللي راح نقولكم عليه؟ ترامب قرر يخفض 300,000 DOGE هالسنة! 😲 المقال يتحدث عن القرارات الأخيرة للإدارة الأمريكية، وين كاين تقليصات كبيرة في العملة الرقمية DOGE، وهاد الشي راح يأثر على السوق. كلنا نعرف كيفاش DOGE ولاّت حديث الساعة، وقداش الناس تعلقت بيها، يعني الأخبار هادي لازم نكونوا واعيين بيها. من تجربتي الشخصية، كنت حاب نزيد نستثمر في DOGE لكن شفت هاد الأخبار وحسيت بلي لازم نكون حذرين. الأمور تتبدل بسرعة في عالم الكريبتو، وما نعرفوش واش راح يجينا من بعد. فكروا مليح في هاد القرارات، لأن كل شيء مرتبط ببعضه! https://forbesmiddleeast.com/featured/politics-security/trump-administration-doge-cuts-will-total-300000-this-year-report-says-1 #DOGE #TrumpAdministration #Cryptocurrency #Investing #اقتصاد
    forbesmiddleeast.com
    Trump Administration DOGE Cuts Will Total 300,000 This Year, Report Says
    Like
    Love
    Wow
    Angry
    Sad
    742
    · 1 Comments ·0 Shares
  • كي راكم يا جماعة! اليوم عندنا موضوع يشدّك من البداية!

    الفيديو الجديد يتكلم عن "الجزائر | الصين تبدي استعدادها للشروع في التجارب الأولية لمشروع غار جبيلات". المشروع هذا عنده تأثير كبير على اقتصادنا، وكيما تعرفوا، غار جبيلات هو واحد من أكبر المشاريع اللي راح تسهم في تطوير الصناعة عندنا.

    شخصيًا، كاين في بالي بزاف من الفرص اللي ممكن تخلقها هاد المشاريع، ونتمنى نشوفوا تأثيرها الإيجابي في حياتنا اليومية. كلما نتقدمو للأمام، كلما زادت الآمال!

    ما تنساوش تشوفوا الفيديو وتشاركونا آراءكم!

    https://www.youtube.com/watch?v=l7sPiqJiiEw

    #الجزائر #غار_جبيلات #الصين #مشاريع_تنموية #InvestInAlgeria
    ✨ كي راكم يا جماعة! اليوم عندنا موضوع يشدّك من البداية! 🚀 الفيديو الجديد يتكلم عن "الجزائر | الصين تبدي استعدادها للشروع في التجارب الأولية لمشروع غار جبيلات". المشروع هذا عنده تأثير كبير على اقتصادنا، وكيما تعرفوا، غار جبيلات هو واحد من أكبر المشاريع اللي راح تسهم في تطوير الصناعة عندنا. شخصيًا، كاين في بالي بزاف من الفرص اللي ممكن تخلقها هاد المشاريع، ونتمنى نشوفوا تأثيرها الإيجابي في حياتنا اليومية. كلما نتقدمو للأمام، كلما زادت الآمال! ما تنساوش تشوفوا الفيديو وتشاركونا آراءكم! 🔗 https://www.youtube.com/watch?v=l7sPiqJiiEw #الجزائر #غار_جبيلات #الصين #مشاريع_تنموية #InvestInAlgeria
    Like
    Love
    Wow
    Angry
    Sad
    337
    · 1 Comments ·0 Shares
  • Gearing Up for the Gigawatt Data Center Age

    Across the globe, AI factories are rising — massive new data centers built not to serve up web pages or email, but to train and deploy intelligence itself. Internet giants have invested billions in cloud-scale AI infrastructure for their customers. Companies are racing to build AI foundries that will spawn the next generation of products and services. Governments are investing too, eager to harness AI for personalized medicine and language services tailored to national populations.
    Welcome to the age of AI factories — where the rules are being rewritten and the wiring doesn’t look anything like the old internet. These aren’t typical hyperscale data centers. They’re something else entirely. Think of them as high-performance engines stitched together from tens to hundreds of thousands of GPUs — not just built, but orchestrated, operated and activated as a single unit. And that orchestration? It’s the whole game.
    This giant data center has become the new unit of computing, and the way these GPUs are connected defines what this unit of computing can do. One network architecture won’t cut it. What’s needed is a layered design with bleeding-edge technologies — like co-packaged optics that once seemed like science fiction.
    The complexity isn’t a bug; it’s the defining feature. AI infrastructure is diverging fast from everything that came before it, and if there isn’t rethinking on how the pipes connect, scale breaks down. Get the network layers wrong, and the whole machine grinds to a halt. Get it right, and gain extraordinary performance.
    With that shift comes weight — literally. A decade ago, chips were built to be sleek and lightweight. Now, the cutting edge looks like the multi‑hundred‑pound copper spine of a server rack. Liquid-cooled manifolds. Custom busbars. Copper spines. AI now demands massive, industrial-scale hardware. And the deeper the models go, the more these machines scale up, and out.
    The NVIDIA NVLink spine, for example, is built from over 5,000 coaxial cables — tightly wound and precisely routed. It moves more data per second than the entire internet. That’s 130 TB/s of GPU-to-GPU bandwidth, fully meshed.
    This isn’t just fast. It’s foundational. The AI super-highway now lives inside the rack.
    The Data Center Is the Computer

    Training the modern large language modelsbehind AI isn’t about burning cycles on a single machine. It’s about orchestrating the work of tens or even hundreds of thousands of GPUs that are the heavy lifters of AI computation.
    These systems rely on distributed computing, splitting massive calculations across nodes, where each node handles a slice of the workload. In training, those slices — typically massive matrices of numbers — need to be regularly merged and updated. That merging occurs through collective operations, such as “all-reduce”and “all-to-all”.
    These processes are susceptible to the speed and responsiveness of the network — what engineers call latencyand bandwidth— causing stalls in training.
    For inference — the process of running trained models to generate answers or predictions — the challenges flip. Retrieval-augmented generation systems, which combine LLMs with search, demand real-time lookups and responses. And in cloud environments, multi-tenant inference means keeping workloads from different customers running smoothly, without interference. That requires lightning-fast, high-throughput networking that can handle massive demand with strict isolation between users.
    Traditional Ethernet was designed for single-server workloads — not for the demands of distributed AI. Tolerating jitter and inconsistent delivery were once acceptable. Now, it’s a bottleneck. Traditional Ethernet switch architectures were never designed for consistent, predictable performance — and that legacy still shapes their latest generations.
    Distributed computing requires a scale-out infrastructure built for zero-jitter operation — one that can handle bursts of extreme throughput, deliver low latency, maintain predictable and consistent RDMA performance, and isolate network noise. This is why InfiniBand networking is the gold standard for high-performance computing supercomputers and AI factories.
    With NVIDIA Quantum InfiniBand, collective operations run inside the network itself using Scalable Hierarchical Aggregation and Reduction Protocol technology, doubling data bandwidth for reductions. It uses adaptive routing and telemetry-based congestion control to spread flows across paths, guarantee deterministic bandwidth and isolate noise. These optimizations let InfiniBand scale AI communication with precision. It’s why NVIDIA Quantum infrastructure connects the majority of the systems on the TOP500 list of the world’s most powerful supercomputers, demonstrating 35% growth in just two years.
    For clusters spanning dozens of racks, NVIDIA Quantum‑X800 Infiniband switches push InfiniBand to new heights. Each switch provides 144 ports of 800 Gbps connectivity, featuring hardware-based SHARPv4, adaptive routing and telemetry-based congestion control. The platform integrates co‑packaged silicon photonics to minimize the distance between electronics and optics, reducing power consumption and latency. Paired with NVIDIA ConnectX-8 SuperNICs delivering 800 Gb/s per GPU, this fabric links trillion-parameter models and drives in-network compute.
    But hyperscalers and enterprises have invested billions in their Ethernet software infrastructure. They need a quick path forward that uses the existing ecosystem for AI workloads. Enter NVIDIA Spectrum‑X: a new kind of Ethernet purpose-built for distributed AI.
    Spectrum‑X Ethernet: Bringing AI to the Enterprise

    Spectrum‑X reimagines Ethernet for AI. Launched in 2023 Spectrum‑X delivers lossless networking, adaptive routing and performance isolation. The SN5610 switch, based on the Spectrum‑4 ASIC, supports port speeds up to 800 Gb/s and uses NVIDIA’s congestion control to maintain 95% data throughput at scale.
    Spectrum‑X is fully standards‑based Ethernet. In addition to supporting Cumulus Linux, it supports the open‑source SONiC network operating system — giving customers flexibility. A key ingredient is NVIDIA SuperNICs — based on NVIDIA BlueField-3 or ConnectX-8 — which provide up to 800 Gb/s RoCE connectivity and offload packet reordering and congestion management.
    Spectrum-X brings InfiniBand’s best innovations — like telemetry-driven congestion control, adaptive load balancing and direct data placement — to Ethernet, enabling enterprises to scale to hundreds of thousands of GPUs. Large-scale systems with Spectrum‑X, including the world’s most colossal AI supercomputer, have achieved 95% data throughput with zero application latency degradation. Standard Ethernet fabrics would deliver only ~60% throughput due to flow collisions.
    A Portfolio for Scale‑Up and Scale‑Out
    No single network can serve every layer of an AI factory. NVIDIA’s approach is to match the right fabric to the right tier, then tie everything together with software and silicon.
    NVLink: Scale Up Inside the Rack
    Inside a server rack, GPUs need to talk to each other as if they were different cores on the same chip. NVIDIA NVLink and NVLink Switch extend GPU memory and bandwidth across nodes. In an NVIDIA GB300 NVL72 system, 36 NVIDIA Grace CPUs and 72 NVIDIA Blackwell Ultra GPUs are connected in a single NVLink domain, with an aggregate bandwidth of 130 TB/s. NVLink Switch technology further extends this fabric: a single GB300 NVL72 system can offer 130 TB/s of GPU bandwidth, enabling clusters to support 9x the GPU count of a single 8‑GPU server. With NVLink, the entire rack becomes one large GPU.
    Photonics: The Next Leap

    To reach million‑GPU AI factories, the network must break the power and density limits of pluggable optics. NVIDIA Quantum-X and Spectrum-X Photonics switches integrate silicon photonics directly into the switch package, delivering 128 to 512 ports of 800 Gb/s with total bandwidths ranging from 100 Tb/s to 400 Tb/s. These switches offer 3.5x more power efficiency and 10x better resiliency compared with traditional optics, paving the way for gigawatt‑scale AI factories.

    Delivering on the Promise of Open Standards

    Spectrum‑X and NVIDIA Quantum InfiniBand are built on open standards. Spectrum‑X is fully standards‑based Ethernet with support for open Ethernet stacks like SONiC, while NVIDIA Quantum InfiniBand and Spectrum-X conform to the InfiniBand Trade Association’s InfiniBand and RDMA over Converged Ethernetspecifications. Key elements of NVIDIA’s software stack — including NCCL and DOCA libraries — run on a variety of hardware, and partners such as Cisco, Dell Technologies, HPE and Supermicro integrate Spectrum-X into their systems.

    Open standards create the foundation for interoperability, but real-world AI clusters require tight optimization across the entire stack — GPUs, NICs, switches, cables and software. Vendors that invest in end‑to‑end integration deliver better latency and throughput. SONiC, the open‑source network operating system hardened in hyperscale data centers, eliminates licensing and vendor lock‑in and allows intense customization, but operators still choose purpose‑built hardware and software bundles to meet AI’s performance needs. In practice, open standards alone don’t deliver deterministic performance; they need innovation layered on top.

    Toward Million‑GPU AI Factories
    AI factories are scaling fast. Governments in Europe are building seven national AI factories, while cloud providers and enterprises across Japan, India and Norway are rolling out NVIDIA‑powered AI infrastructure. The next horizon is gigawatt‑class facilities with a million GPUs. To get there, the network must evolve from an afterthought to a pillar of AI infrastructure.
    The lesson from the gigawatt data center age is simple: the data center is now the computer. NVLink stitches together GPUs inside the rack. NVIDIA Quantum InfiniBand scales them across it. Spectrum-X brings that performance to broader markets. Silicon photonics makes it sustainable. Everything is open where it matters, optimized where it counts.
     
     

     
    #gearing #gigawatt #data #center #age
    Gearing Up for the Gigawatt Data Center Age
    Across the globe, AI factories are rising — massive new data centers built not to serve up web pages or email, but to train and deploy intelligence itself. Internet giants have invested billions in cloud-scale AI infrastructure for their customers. Companies are racing to build AI foundries that will spawn the next generation of products and services. Governments are investing too, eager to harness AI for personalized medicine and language services tailored to national populations. Welcome to the age of AI factories — where the rules are being rewritten and the wiring doesn’t look anything like the old internet. These aren’t typical hyperscale data centers. They’re something else entirely. Think of them as high-performance engines stitched together from tens to hundreds of thousands of GPUs — not just built, but orchestrated, operated and activated as a single unit. And that orchestration? It’s the whole game. This giant data center has become the new unit of computing, and the way these GPUs are connected defines what this unit of computing can do. One network architecture won’t cut it. What’s needed is a layered design with bleeding-edge technologies — like co-packaged optics that once seemed like science fiction. The complexity isn’t a bug; it’s the defining feature. AI infrastructure is diverging fast from everything that came before it, and if there isn’t rethinking on how the pipes connect, scale breaks down. Get the network layers wrong, and the whole machine grinds to a halt. Get it right, and gain extraordinary performance. With that shift comes weight — literally. A decade ago, chips were built to be sleek and lightweight. Now, the cutting edge looks like the multi‑hundred‑pound copper spine of a server rack. Liquid-cooled manifolds. Custom busbars. Copper spines. AI now demands massive, industrial-scale hardware. And the deeper the models go, the more these machines scale up, and out. The NVIDIA NVLink spine, for example, is built from over 5,000 coaxial cables — tightly wound and precisely routed. It moves more data per second than the entire internet. That’s 130 TB/s of GPU-to-GPU bandwidth, fully meshed. This isn’t just fast. It’s foundational. The AI super-highway now lives inside the rack. The Data Center Is the Computer Training the modern large language modelsbehind AI isn’t about burning cycles on a single machine. It’s about orchestrating the work of tens or even hundreds of thousands of GPUs that are the heavy lifters of AI computation. These systems rely on distributed computing, splitting massive calculations across nodes, where each node handles a slice of the workload. In training, those slices — typically massive matrices of numbers — need to be regularly merged and updated. That merging occurs through collective operations, such as “all-reduce”and “all-to-all”. These processes are susceptible to the speed and responsiveness of the network — what engineers call latencyand bandwidth— causing stalls in training. For inference — the process of running trained models to generate answers or predictions — the challenges flip. Retrieval-augmented generation systems, which combine LLMs with search, demand real-time lookups and responses. And in cloud environments, multi-tenant inference means keeping workloads from different customers running smoothly, without interference. That requires lightning-fast, high-throughput networking that can handle massive demand with strict isolation between users. Traditional Ethernet was designed for single-server workloads — not for the demands of distributed AI. Tolerating jitter and inconsistent delivery were once acceptable. Now, it’s a bottleneck. Traditional Ethernet switch architectures were never designed for consistent, predictable performance — and that legacy still shapes their latest generations. Distributed computing requires a scale-out infrastructure built for zero-jitter operation — one that can handle bursts of extreme throughput, deliver low latency, maintain predictable and consistent RDMA performance, and isolate network noise. This is why InfiniBand networking is the gold standard for high-performance computing supercomputers and AI factories. With NVIDIA Quantum InfiniBand, collective operations run inside the network itself using Scalable Hierarchical Aggregation and Reduction Protocol technology, doubling data bandwidth for reductions. It uses adaptive routing and telemetry-based congestion control to spread flows across paths, guarantee deterministic bandwidth and isolate noise. These optimizations let InfiniBand scale AI communication with precision. It’s why NVIDIA Quantum infrastructure connects the majority of the systems on the TOP500 list of the world’s most powerful supercomputers, demonstrating 35% growth in just two years. For clusters spanning dozens of racks, NVIDIA Quantum‑X800 Infiniband switches push InfiniBand to new heights. Each switch provides 144 ports of 800 Gbps connectivity, featuring hardware-based SHARPv4, adaptive routing and telemetry-based congestion control. The platform integrates co‑packaged silicon photonics to minimize the distance between electronics and optics, reducing power consumption and latency. Paired with NVIDIA ConnectX-8 SuperNICs delivering 800 Gb/s per GPU, this fabric links trillion-parameter models and drives in-network compute. But hyperscalers and enterprises have invested billions in their Ethernet software infrastructure. They need a quick path forward that uses the existing ecosystem for AI workloads. Enter NVIDIA Spectrum‑X: a new kind of Ethernet purpose-built for distributed AI. Spectrum‑X Ethernet: Bringing AI to the Enterprise Spectrum‑X reimagines Ethernet for AI. Launched in 2023 Spectrum‑X delivers lossless networking, adaptive routing and performance isolation. The SN5610 switch, based on the Spectrum‑4 ASIC, supports port speeds up to 800 Gb/s and uses NVIDIA’s congestion control to maintain 95% data throughput at scale. Spectrum‑X is fully standards‑based Ethernet. In addition to supporting Cumulus Linux, it supports the open‑source SONiC network operating system — giving customers flexibility. A key ingredient is NVIDIA SuperNICs — based on NVIDIA BlueField-3 or ConnectX-8 — which provide up to 800 Gb/s RoCE connectivity and offload packet reordering and congestion management. Spectrum-X brings InfiniBand’s best innovations — like telemetry-driven congestion control, adaptive load balancing and direct data placement — to Ethernet, enabling enterprises to scale to hundreds of thousands of GPUs. Large-scale systems with Spectrum‑X, including the world’s most colossal AI supercomputer, have achieved 95% data throughput with zero application latency degradation. Standard Ethernet fabrics would deliver only ~60% throughput due to flow collisions. A Portfolio for Scale‑Up and Scale‑Out No single network can serve every layer of an AI factory. NVIDIA’s approach is to match the right fabric to the right tier, then tie everything together with software and silicon. NVLink: Scale Up Inside the Rack Inside a server rack, GPUs need to talk to each other as if they were different cores on the same chip. NVIDIA NVLink and NVLink Switch extend GPU memory and bandwidth across nodes. In an NVIDIA GB300 NVL72 system, 36 NVIDIA Grace CPUs and 72 NVIDIA Blackwell Ultra GPUs are connected in a single NVLink domain, with an aggregate bandwidth of 130 TB/s. NVLink Switch technology further extends this fabric: a single GB300 NVL72 system can offer 130 TB/s of GPU bandwidth, enabling clusters to support 9x the GPU count of a single 8‑GPU server. With NVLink, the entire rack becomes one large GPU. Photonics: The Next Leap To reach million‑GPU AI factories, the network must break the power and density limits of pluggable optics. NVIDIA Quantum-X and Spectrum-X Photonics switches integrate silicon photonics directly into the switch package, delivering 128 to 512 ports of 800 Gb/s with total bandwidths ranging from 100 Tb/s to 400 Tb/s. These switches offer 3.5x more power efficiency and 10x better resiliency compared with traditional optics, paving the way for gigawatt‑scale AI factories. Delivering on the Promise of Open Standards Spectrum‑X and NVIDIA Quantum InfiniBand are built on open standards. Spectrum‑X is fully standards‑based Ethernet with support for open Ethernet stacks like SONiC, while NVIDIA Quantum InfiniBand and Spectrum-X conform to the InfiniBand Trade Association’s InfiniBand and RDMA over Converged Ethernetspecifications. Key elements of NVIDIA’s software stack — including NCCL and DOCA libraries — run on a variety of hardware, and partners such as Cisco, Dell Technologies, HPE and Supermicro integrate Spectrum-X into their systems. Open standards create the foundation for interoperability, but real-world AI clusters require tight optimization across the entire stack — GPUs, NICs, switches, cables and software. Vendors that invest in end‑to‑end integration deliver better latency and throughput. SONiC, the open‑source network operating system hardened in hyperscale data centers, eliminates licensing and vendor lock‑in and allows intense customization, but operators still choose purpose‑built hardware and software bundles to meet AI’s performance needs. In practice, open standards alone don’t deliver deterministic performance; they need innovation layered on top. Toward Million‑GPU AI Factories AI factories are scaling fast. Governments in Europe are building seven national AI factories, while cloud providers and enterprises across Japan, India and Norway are rolling out NVIDIA‑powered AI infrastructure. The next horizon is gigawatt‑class facilities with a million GPUs. To get there, the network must evolve from an afterthought to a pillar of AI infrastructure. The lesson from the gigawatt data center age is simple: the data center is now the computer. NVLink stitches together GPUs inside the rack. NVIDIA Quantum InfiniBand scales them across it. Spectrum-X brings that performance to broader markets. Silicon photonics makes it sustainable. Everything is open where it matters, optimized where it counts.       #gearing #gigawatt #data #center #age
    Gearing Up for the Gigawatt Data Center Age
    blogs.nvidia.com
    Across the globe, AI factories are rising — massive new data centers built not to serve up web pages or email, but to train and deploy intelligence itself. Internet giants have invested billions in cloud-scale AI infrastructure for their customers. Companies are racing to build AI foundries that will spawn the next generation of products and services. Governments are investing too, eager to harness AI for personalized medicine and language services tailored to national populations. Welcome to the age of AI factories — where the rules are being rewritten and the wiring doesn’t look anything like the old internet. These aren’t typical hyperscale data centers. They’re something else entirely. Think of them as high-performance engines stitched together from tens to hundreds of thousands of GPUs — not just built, but orchestrated, operated and activated as a single unit. And that orchestration? It’s the whole game. This giant data center has become the new unit of computing, and the way these GPUs are connected defines what this unit of computing can do. One network architecture won’t cut it. What’s needed is a layered design with bleeding-edge technologies — like co-packaged optics that once seemed like science fiction. The complexity isn’t a bug; it’s the defining feature. AI infrastructure is diverging fast from everything that came before it, and if there isn’t rethinking on how the pipes connect, scale breaks down. Get the network layers wrong, and the whole machine grinds to a halt. Get it right, and gain extraordinary performance. With that shift comes weight — literally. A decade ago, chips were built to be sleek and lightweight. Now, the cutting edge looks like the multi‑hundred‑pound copper spine of a server rack. Liquid-cooled manifolds. Custom busbars. Copper spines. AI now demands massive, industrial-scale hardware. And the deeper the models go, the more these machines scale up, and out. The NVIDIA NVLink spine, for example, is built from over 5,000 coaxial cables — tightly wound and precisely routed. It moves more data per second than the entire internet. That’s 130 TB/s of GPU-to-GPU bandwidth, fully meshed. This isn’t just fast. It’s foundational. The AI super-highway now lives inside the rack. The Data Center Is the Computer Training the modern large language models (LLMs) behind AI isn’t about burning cycles on a single machine. It’s about orchestrating the work of tens or even hundreds of thousands of GPUs that are the heavy lifters of AI computation. These systems rely on distributed computing, splitting massive calculations across nodes (individual servers), where each node handles a slice of the workload. In training, those slices — typically massive matrices of numbers — need to be regularly merged and updated. That merging occurs through collective operations, such as “all-reduce” (which combines data from all nodes and redistributes the result) and “all-to-all” (where each node exchanges data with every other node). These processes are susceptible to the speed and responsiveness of the network — what engineers call latency (delay) and bandwidth (data capacity) — causing stalls in training. For inference — the process of running trained models to generate answers or predictions — the challenges flip. Retrieval-augmented generation systems, which combine LLMs with search, demand real-time lookups and responses. And in cloud environments, multi-tenant inference means keeping workloads from different customers running smoothly, without interference. That requires lightning-fast, high-throughput networking that can handle massive demand with strict isolation between users. Traditional Ethernet was designed for single-server workloads — not for the demands of distributed AI. Tolerating jitter and inconsistent delivery were once acceptable. Now, it’s a bottleneck. Traditional Ethernet switch architectures were never designed for consistent, predictable performance — and that legacy still shapes their latest generations. Distributed computing requires a scale-out infrastructure built for zero-jitter operation — one that can handle bursts of extreme throughput, deliver low latency, maintain predictable and consistent RDMA performance, and isolate network noise. This is why InfiniBand networking is the gold standard for high-performance computing supercomputers and AI factories. With NVIDIA Quantum InfiniBand, collective operations run inside the network itself using Scalable Hierarchical Aggregation and Reduction Protocol technology, doubling data bandwidth for reductions. It uses adaptive routing and telemetry-based congestion control to spread flows across paths, guarantee deterministic bandwidth and isolate noise. These optimizations let InfiniBand scale AI communication with precision. It’s why NVIDIA Quantum infrastructure connects the majority of the systems on the TOP500 list of the world’s most powerful supercomputers, demonstrating 35% growth in just two years. For clusters spanning dozens of racks, NVIDIA Quantum‑X800 Infiniband switches push InfiniBand to new heights. Each switch provides 144 ports of 800 Gbps connectivity, featuring hardware-based SHARPv4, adaptive routing and telemetry-based congestion control. The platform integrates co‑packaged silicon photonics to minimize the distance between electronics and optics, reducing power consumption and latency. Paired with NVIDIA ConnectX-8 SuperNICs delivering 800 Gb/s per GPU, this fabric links trillion-parameter models and drives in-network compute. But hyperscalers and enterprises have invested billions in their Ethernet software infrastructure. They need a quick path forward that uses the existing ecosystem for AI workloads. Enter NVIDIA Spectrum‑X: a new kind of Ethernet purpose-built for distributed AI. Spectrum‑X Ethernet: Bringing AI to the Enterprise Spectrum‑X reimagines Ethernet for AI. Launched in 2023 Spectrum‑X delivers lossless networking, adaptive routing and performance isolation. The SN5610 switch, based on the Spectrum‑4 ASIC, supports port speeds up to 800 Gb/s and uses NVIDIA’s congestion control to maintain 95% data throughput at scale. Spectrum‑X is fully standards‑based Ethernet. In addition to supporting Cumulus Linux, it supports the open‑source SONiC network operating system — giving customers flexibility. A key ingredient is NVIDIA SuperNICs — based on NVIDIA BlueField-3 or ConnectX-8 — which provide up to 800 Gb/s RoCE connectivity and offload packet reordering and congestion management. Spectrum-X brings InfiniBand’s best innovations — like telemetry-driven congestion control, adaptive load balancing and direct data placement — to Ethernet, enabling enterprises to scale to hundreds of thousands of GPUs. Large-scale systems with Spectrum‑X, including the world’s most colossal AI supercomputer, have achieved 95% data throughput with zero application latency degradation. Standard Ethernet fabrics would deliver only ~60% throughput due to flow collisions. A Portfolio for Scale‑Up and Scale‑Out No single network can serve every layer of an AI factory. NVIDIA’s approach is to match the right fabric to the right tier, then tie everything together with software and silicon. NVLink: Scale Up Inside the Rack Inside a server rack, GPUs need to talk to each other as if they were different cores on the same chip. NVIDIA NVLink and NVLink Switch extend GPU memory and bandwidth across nodes. In an NVIDIA GB300 NVL72 system, 36 NVIDIA Grace CPUs and 72 NVIDIA Blackwell Ultra GPUs are connected in a single NVLink domain, with an aggregate bandwidth of 130 TB/s. NVLink Switch technology further extends this fabric: a single GB300 NVL72 system can offer 130 TB/s of GPU bandwidth, enabling clusters to support 9x the GPU count of a single 8‑GPU server. With NVLink, the entire rack becomes one large GPU. Photonics: The Next Leap To reach million‑GPU AI factories, the network must break the power and density limits of pluggable optics. NVIDIA Quantum-X and Spectrum-X Photonics switches integrate silicon photonics directly into the switch package, delivering 128 to 512 ports of 800 Gb/s with total bandwidths ranging from 100 Tb/s to 400 Tb/s. These switches offer 3.5x more power efficiency and 10x better resiliency compared with traditional optics, paving the way for gigawatt‑scale AI factories. Delivering on the Promise of Open Standards Spectrum‑X and NVIDIA Quantum InfiniBand are built on open standards. Spectrum‑X is fully standards‑based Ethernet with support for open Ethernet stacks like SONiC, while NVIDIA Quantum InfiniBand and Spectrum-X conform to the InfiniBand Trade Association’s InfiniBand and RDMA over Converged Ethernet (RoCE) specifications. Key elements of NVIDIA’s software stack — including NCCL and DOCA libraries — run on a variety of hardware, and partners such as Cisco, Dell Technologies, HPE and Supermicro integrate Spectrum-X into their systems. Open standards create the foundation for interoperability, but real-world AI clusters require tight optimization across the entire stack — GPUs, NICs, switches, cables and software. Vendors that invest in end‑to‑end integration deliver better latency and throughput. SONiC, the open‑source network operating system hardened in hyperscale data centers, eliminates licensing and vendor lock‑in and allows intense customization, but operators still choose purpose‑built hardware and software bundles to meet AI’s performance needs. In practice, open standards alone don’t deliver deterministic performance; they need innovation layered on top. Toward Million‑GPU AI Factories AI factories are scaling fast. Governments in Europe are building seven national AI factories, while cloud providers and enterprises across Japan, India and Norway are rolling out NVIDIA‑powered AI infrastructure. The next horizon is gigawatt‑class facilities with a million GPUs. To get there, the network must evolve from an afterthought to a pillar of AI infrastructure. The lesson from the gigawatt data center age is simple: the data center is now the computer. NVLink stitches together GPUs inside the rack. NVIDIA Quantum InfiniBand scales them across it. Spectrum-X brings that performance to broader markets. Silicon photonics makes it sustainable. Everything is open where it matters, optimized where it counts.      
    2 Comments ·0 Shares
  • هل سمعتوا الخبر؟ شركة ميتا قررت توقف التوظيف في قسم الذكاء الاصطناعي!

    معا معلومات من صحيفة وول ستريت جورنال، يبدو أن بعد أشهر من التوسع السريع وجلب أكثر من خمسين باحث ومهندس، جاتهم فكرة جديدة: "نعيد الهيكلة." يعني، الأمور ماشي كما كانت من قبل. هذا التجميد جاء في وقت المستثمرين قلقين من التكاليف العالية.

    شخصيًا، نعتبر الذكاء الاصطناعي مجال واعد، بس لازم نفكر في الاستدامة. كيفاش ممكن نفهمو التوازن بين التوسع والتكاليف؟

    تخيلوا كيف راح يكون المشهد في المستقبل لو الشركات الكبيرة تحافظ على استثماراتها بشكل عقلاني؟

    https://www.youtube.com/watch?v=P8jBgNNSQqA
    #ميتا #الذكاء_الاصطناعي #AI #تكنولوجيا #investing
    🚀 هل سمعتوا الخبر؟ شركة ميتا قررت توقف التوظيف في قسم الذكاء الاصطناعي! 😮 معا معلومات من صحيفة وول ستريت جورنال، يبدو أن بعد أشهر من التوسع السريع وجلب أكثر من خمسين باحث ومهندس، جاتهم فكرة جديدة: "نعيد الهيكلة." يعني، الأمور ماشي كما كانت من قبل. هذا التجميد جاء في وقت المستثمرين قلقين من التكاليف العالية. شخصيًا، نعتبر الذكاء الاصطناعي مجال واعد، بس لازم نفكر في الاستدامة. كيفاش ممكن نفهمو التوازن بين التوسع والتكاليف؟ تخيلوا كيف راح يكون المشهد في المستقبل لو الشركات الكبيرة تحافظ على استثماراتها بشكل عقلاني؟ https://www.youtube.com/watch?v=P8jBgNNSQqA #ميتا #الذكاء_الاصطناعي #AI #تكنولوجيا #investing
    1 Comments ·0 Shares
  • سلام يا أحباب! اليوم عندي لكم فيديو جديد في الدليل الشامل للجيو دومينات، وين نتحدثوا عن "الطريقة الثانية للبحث عن الجيو الدومينات" في الدرس السادس.

    في هذا الفيديو، رايحين نتعلّم كيفاش نستعملوا أداة TLD Reg Count في موقع ExpiredDomains، باش نشوفوا الدومينات المخفية اللي ما تظهرش في البحث التقليدي. هذي الطريقة شوي صعيبة، لكن تعطيك دومينات عالية الجودة. رح نتعلموا كيفاش نبحثوا مدينة بمدينة، ونحللوا الدومينات باستخدام أدوات مثل Domai.io، ونستخدم Google Maps للتأكد من وجود زبائن محتملين.

    أنا شخصياً جربت هذي الطريقة وفعلاً أعطتني نتائج رائعة!

    نتمنى تستفيدوا من المحتوى، وديما خلو أعينكم على الفرص الجديدة في عالم الدومينات.

    https://www.youtube.com/watch?v=ZqCylgBbOr0
    #جيو_دومينات #ExpiredDomains #DomainInvesting #MrKehel #TLDRegCount
    🔥 سلام يا أحباب! اليوم عندي لكم فيديو جديد في الدليل الشامل للجيو دومينات، وين نتحدثوا عن "الطريقة الثانية للبحث عن الجيو الدومينات" في الدرس السادس. في هذا الفيديو، رايحين نتعلّم كيفاش نستعملوا أداة TLD Reg Count في موقع ExpiredDomains، باش نشوفوا الدومينات المخفية اللي ما تظهرش في البحث التقليدي. هذي الطريقة شوي صعيبة، لكن تعطيك دومينات عالية الجودة. رح نتعلموا كيفاش نبحثوا مدينة بمدينة، ونحللوا الدومينات باستخدام أدوات مثل Domai.io، ونستخدم Google Maps للتأكد من وجود زبائن محتملين. أنا شخصياً جربت هذي الطريقة وفعلاً أعطتني نتائج رائعة! 💪 نتمنى تستفيدوا من المحتوى، وديما خلو أعينكم على الفرص الجديدة في عالم الدومينات. https://www.youtube.com/watch?v=ZqCylgBbOr0 #جيو_دومينات #ExpiredDomains #DomainInvesting #MrKehel #TLDRegCount
    1 Comments ·0 Shares
  • يا جماعة، عندي لكم فيديو خطير بزاف!

    اليوم، رح نكتشف "الطريقة الرابعة للبحث عن الجيو الدومينات" في الدرس الثامن من السلسلة. هاذي طريقة متقدمة تفتح لك آفاق جديدة وتحصل على فرص ذهبية يقدروا ما يشوفوهاش الكثير. شخصيًا، جربت هاذي الطريقة ولقطت دومين تم بيعه بأكثر من 1000 دولار!

    إذا كنت مهتم بعالم الدومينات أو حاب تربح من الإنترنت، هذا الدرس رح يكون تغيير تمام في مسيرتك. لا تفوت الفرصة، وشوف الفيديو حتى النهاية وشاركنا رأيك وتعليقاتك.

    https://www.youtube.com/watch?v=3FVOyXVxtQA

    #الجيو_دومينات #الربح_من_الإنترنت #جديد_التجارة #DomainInvesting #Opportunités
    🌟 يا جماعة، عندي لكم فيديو خطير بزاف! 🌟 اليوم، رح نكتشف "الطريقة الرابعة للبحث عن الجيو الدومينات" في الدرس الثامن من السلسلة. هاذي طريقة متقدمة تفتح لك آفاق جديدة وتحصل على فرص ذهبية يقدروا ما يشوفوهاش الكثير. 🤩 شخصيًا، جربت هاذي الطريقة ولقطت دومين تم بيعه بأكثر من 1000 دولار! 💸 إذا كنت مهتم بعالم الدومينات أو حاب تربح من الإنترنت، هذا الدرس رح يكون تغيير تمام في مسيرتك. لا تفوت الفرصة، وشوف الفيديو حتى النهاية وشاركنا رأيك وتعليقاتك. ➡️ https://www.youtube.com/watch?v=3FVOyXVxtQA #الجيو_دومينات #الربح_من_الإنترنت #جديد_التجارة #DomainInvesting #Opportunités
    1 Comments ·0 Shares
  • السلام عليكم يا أبطال! اليوم جبتلكم فيديو جديد رح يفتح لكم آفاق جديدة في عالم الجيو دومينات.

    في الدرس العاشر من الكورس، رح نتعلموا مع بعض كيفية شراء دوماينات جغرافية وتحليلها، ثم وضعها للبيع. الفيديو يوضّح 5 طرق فعّالة لاكتشاف الدومينات المربحة وكيفية تقييمها. وأنا شخصياً غادي نطبق الطرق هذي ونشارك معاكم تجربتي.

    تجربتي مع الدومينات كانت جميلة وتعليميّة، وصحيح فيها تحديات، لكن مع المعلومات الصحيحة، نقدروا نحققوا أرباح خيالية.

    تابعوا الفيديو وخلّوا طموحاتكم تعلو، لأنّ عالم الدومينات في انتظاركم!

    https://www.youtube.com/watch?v=8FnzNyXBk8Y
    #جيو_دومينات #DomainInvesting #فرصة_عمل #تجارة_الدومينات #Investissement
    👋 السلام عليكم يا أبطال! اليوم جبتلكم فيديو جديد رح يفتح لكم آفاق جديدة في عالم الجيو دومينات. 📈 في الدرس العاشر من الكورس، رح نتعلموا مع بعض كيفية شراء دوماينات جغرافية وتحليلها، ثم وضعها للبيع. الفيديو يوضّح 5 طرق فعّالة لاكتشاف الدومينات المربحة وكيفية تقييمها. وأنا شخصياً غادي نطبق الطرق هذي ونشارك معاكم تجربتي. 🚀 تجربتي مع الدومينات كانت جميلة وتعليميّة، وصحيح فيها تحديات، لكن مع المعلومات الصحيحة، نقدروا نحققوا أرباح خيالية. 🔥 تابعوا الفيديو وخلّوا طموحاتكم تعلو، لأنّ عالم الدومينات في انتظاركم! https://www.youtube.com/watch?v=8FnzNyXBk8Y #جيو_دومينات #DomainInvesting #فرصة_عمل #تجارة_الدومينات #Investissement
    Like
    Love
    Wow
    Sad
    Angry
    104
    · 1 Comments ·0 Shares
  • أهلا وسهلا بالجميع!

    حاب نشارككم خبر يهم المستثمرين اللي عندهم علاقة مع شركة Abacus Global Management، Inc. (NASDAQ: ABL). مكتب محاماة Pomerantz بدأ التحقيق في شكاوى بعض المستثمرين. إذا كنت من الناس اللي تأثروا، ننصحكم تتواصلوا مع Danielle Peyton على الإيميل الجديد أو تتصلوا برقمها.

    الموضوع هذا يذكرني بأهمية الحذر في عالم الاستثمار. كل واحد فينا يطمح لفرص مربحة، لكن لازم نكون واعين ونراقب تحركات السوق.

    المستقبل يخبأ لنا مفاجآت، وعلينا نكون مستعدين لأي شيء يجي.

    https://www.globenewswire.com/news-release/2025/08/17/3134649/1087/en/INVESTOR-ALERT-Pomerantz-Law-Firm-Investigates-Claims-On-Behalf-of-Investors-of-Abacus-Global-Management-Inc-ABL.html

    #استثمار #Abacus #Pomerantz #قضايا_مالية #Investing
    🚨 أهلا وسهلا بالجميع! حاب نشارككم خبر يهم المستثمرين اللي عندهم علاقة مع شركة Abacus Global Management، Inc. (NASDAQ: ABL). مكتب محاماة Pomerantz بدأ التحقيق في شكاوى بعض المستثمرين. إذا كنت من الناس اللي تأثروا، ننصحكم تتواصلوا مع Danielle Peyton على الإيميل الجديد أو تتصلوا برقمها. الموضوع هذا يذكرني بأهمية الحذر في عالم الاستثمار. كل واحد فينا يطمح لفرص مربحة، لكن لازم نكون واعين ونراقب تحركات السوق. المستقبل يخبأ لنا مفاجآت، وعلينا نكون مستعدين لأي شيء يجي. https://www.globenewswire.com/news-release/2025/08/17/3134649/1087/en/INVESTOR-ALERT-Pomerantz-Law-Firm-Investigates-Claims-On-Behalf-of-Investors-of-Abacus-Global-Management-Inc-ABL.html #استثمار #Abacus #Pomerantz #قضايا_مالية #Investing
    www.globenewswire.com
    NEW YORK, Aug. 17, 2025 (GLOBE NEWSWIRE) -- Pomerantz LLP is investigating claims on behalf of investors of  Abacus Global Management, Inc. (“Abacus” or the “Company”) (NASDAQ: ABL).  Such investors are advised to contact Danielle Peyton at newacti
    Like
    Love
    Wow
    Angry
    Sad
    82
    · 1 Comments ·0 Shares
  • واش راكوم يا الأحباب! اليوم عندي لكم موضوع مميز، حيث إنه المقال رقم 100 لي في المدونة، وهو الأول في 2023.

    في هاد المقال، حبيت نهدر على حاجة كل واحد منا يعيشها يومياً: الوقت. لكن مش عن الوقت بشكل عام أو نظرياته، بل عنو كأثمن مورد في حياتنا، كأنه العملة الوحيدة لي تقدرو تستثمرو فيها. الوقت هو لي يحدد كيفاش نعيشو، وكفاش نحققو أحلامنا.

    شفت بزاف من الناس يضيعو وقتهم في السوشيال ميديا ولا في أمور عابرة، ويرجعو يندمو بعدين. أنا شخصياً مرّيت بتجارب وين كنت نحب نرواح أكثر، لكن عرفت باللي الوقت لي راح ما نقدرش نرجعوه. لذا، لازم نكونو واعيين بكيفاش نصرفو وقتنا.

    خليو بالكم، الوقت غالي، كل دقيقة تحسب.

    https://ufried.com/blog/watch_your_time_1/

    #الوقت #TimeManagement #الحياة #Productivity #InvestIn
    🚀 واش راكوم يا الأحباب! اليوم عندي لكم موضوع مميز، حيث إنه المقال رقم 100 لي في المدونة، وهو الأول في 2023. 🤩 في هاد المقال، حبيت نهدر على حاجة كل واحد منا يعيشها يومياً: الوقت. لكن مش عن الوقت بشكل عام أو نظرياته، بل عنو كأثمن مورد في حياتنا، كأنه العملة الوحيدة لي تقدرو تستثمرو فيها. الوقت هو لي يحدد كيفاش نعيشو، وكفاش نحققو أحلامنا. شفت بزاف من الناس يضيعو وقتهم في السوشيال ميديا ولا في أمور عابرة، ويرجعو يندمو بعدين. أنا شخصياً مرّيت بتجارب وين كنت نحب نرواح أكثر، لكن عرفت باللي الوقت لي راح ما نقدرش نرجعوه. لذا، لازم نكونو واعيين بكيفاش نصرفو وقتنا. خليو بالكم، الوقت غالي، كل دقيقة تحسب. https://ufried.com/blog/watch_your_time_1/ #الوقت #TimeManagement #الحياة #Productivity #InvestIn
    ufried.com
    Watch your time - Part 1 This is my 100th blog post and the first post, I release in 2023. I would like to use this post to write about something more general for a change. I would like to write about time. Not about time in general, its relativity o
    1 Comments ·0 Shares
  • واش راكم يا الأصدقاء؟ في فيديو جديد اليوم رح نحكي على كيفاش تقدر تستثمر بطريقة جديدة في العقارات، وبدون ما تضيّع الوقت!

    الفيديو هذا يقدملكم طريقة سهلة وبسيطة لبناء موقع عقاري احترافي لشركتكم خلال دقائق مع "سنديان". واللي يشجعكم أكثر هو خصم 40% على سعر الاشتراك السنوي من خلال الكوبون MOIQ40 لأول 30 مشترك!

    شخصيا، عندي تجربة مع الاستثمار العقاري، وكانت البداية صعبة شوية، بصح مع الأدوات الصحيحة، الأمور ولاّت أسهل بكثير. وانتوما، واش رايكم في الاستثمار في العقارات؟ هل جربتوا قبل ولا هذا هو الأول؟

    تابعوا الفيديو وحطوا في بالكم الفرصة هذي، خلوها ما تفوتكمش!

    https://www.youtube.com/watch?v=xjRI3BW2iBU

    #الاستثمار_العقاري #Syndian #الفرص #عقارات #Investing
    🙌 واش راكم يا الأصدقاء؟ في فيديو جديد اليوم رح نحكي على كيفاش تقدر تستثمر بطريقة جديدة في العقارات، وبدون ما تضيّع الوقت! 🚀 الفيديو هذا يقدملكم طريقة سهلة وبسيطة لبناء موقع عقاري احترافي لشركتكم خلال دقائق مع "سنديان". واللي يشجعكم أكثر هو خصم 40% على سعر الاشتراك السنوي من خلال الكوبون MOIQ40 لأول 30 مشترك! 😍 شخصيا، عندي تجربة مع الاستثمار العقاري، وكانت البداية صعبة شوية، بصح مع الأدوات الصحيحة، الأمور ولاّت أسهل بكثير. وانتوما، واش رايكم في الاستثمار في العقارات؟ هل جربتوا قبل ولا هذا هو الأول؟ 🤔 تابعوا الفيديو وحطوا في بالكم الفرصة هذي، خلوها ما تفوتكمش! https://www.youtube.com/watch?v=xjRI3BW2iBU #الاستثمار_العقاري #Syndian #الفرص #عقارات #Investing
    1 Comments ·0 Shares
More Results
ollo https://www.ollo.ws