• كيما دايماً، البيانات تثبت قوتها!

    رغم أن إنفاق التقنية في العالم بدا يبرد شوية، الاستثمار في البنية التحتية للبيانات راهو يتسارع. Snowflake حققت نمو بـ 32%، وهاد الشي يبين كيفاش الشركات كاينة تحوس على بنية تحتية جاهزة للذكاء الاصطناعي. يعني، حتى في الأوقات الصعبة، المعطيات تبقى أساسية!

    من تجربتي، شفنا كيفاش الشركات اللي عطات أهمية للبيانات قدرت تتجاوز التحديات بشكل أفضل. هاد الشي يفتح لنا عيونا على أهمية أننا نستثمر في التكنولوجيا اللي تعود بالنفع علينا.

    فكرو معانا في كيفاش ممكن نكونوا جزء من هاد التطور في عالم البيانات!

    https://venturebeat.com/data-infrastructure/enterprise-data-infrastructure-proves-resilient-as-snowflakes-32-growth-defies-tech-slowdown-fears/
    #بيانات #DataInfrastructure #Innovation #ذكاء_اصطناعي #AI
    🚀 كيما دايماً، البيانات تثبت قوتها! 🍃 رغم أن إنفاق التقنية في العالم بدا يبرد شوية، الاستثمار في البنية التحتية للبيانات راهو يتسارع. Snowflake حققت نمو بـ 32%، وهاد الشي يبين كيفاش الشركات كاينة تحوس على بنية تحتية جاهزة للذكاء الاصطناعي. يعني، حتى في الأوقات الصعبة، المعطيات تبقى أساسية! من تجربتي، شفنا كيفاش الشركات اللي عطات أهمية للبيانات قدرت تتجاوز التحديات بشكل أفضل. هاد الشي يفتح لنا عيونا على أهمية أننا نستثمر في التكنولوجيا اللي تعود بالنفع علينا. فكرو معانا في كيفاش ممكن نكونوا جزء من هاد التطور في عالم البيانات! https://venturebeat.com/data-infrastructure/enterprise-data-infrastructure-proves-resilient-as-snowflakes-32-growth-defies-tech-slowdown-fears/ #بيانات #DataInfrastructure #Innovation #ذكاء_اصطناعي #AI
    venturebeat.com
    While broader technology spending shows signs of cooling, data platform investments accelerate as enterprises prioritize AI-ready infrastructure.
    Like
    Love
    Wow
    Sad
    Angry
    789
    · 1 التعليقات ·0 المشاركات
  • شكون يقول بلي الطريق الوطني رقم 09 ماشي "المغامر"؟!

    في فيديو اليوم، راح نشوفوا مشروع تهيئة وعصرنة منعرجات خراطة، وين راهم يخدموا على معالجة المنحدرات الصخرية الخطرين ويديروا جسرين بطول 300 و600 متر في برج ميرة. المشروع هذا مش غير حاجة جديدة، بل راح يحسن السلامة المرورية ويخلي التنقل في بجاية أسهل.

    شخصيا، كي كنت نقطع منعرجات خراطة، كنت نحس وكأني في لعبة سباق، لكن المرة الجاية إن شاء الله، نكون مطمئن بفضل هالمجهودات.

    مهم، لا تنسوا تشوفوا الفيديو وتشاركوه مع أحبابكم، لأنو كل واحد يستحق أنو يعرف آخر الأخبار حول البنية التحتية في بلادنا.

    https://www.youtube.com/watch?v=u4l--GDmt5U

    #بجاية #منعرجات_خراطة #الطريق_الوطني_رقم_9 #InfrastructureAlger
    🚧 شكون يقول بلي الطريق الوطني رقم 09 ماشي "المغامر"؟! 😄 في فيديو اليوم، راح نشوفوا مشروع تهيئة وعصرنة منعرجات خراطة، وين راهم يخدموا على معالجة المنحدرات الصخرية الخطرين ويديروا جسرين بطول 300 و600 متر في برج ميرة. المشروع هذا مش غير حاجة جديدة، بل راح يحسن السلامة المرورية ويخلي التنقل في بجاية أسهل. 😎 شخصيا، كي كنت نقطع منعرجات خراطة، كنت نحس وكأني في لعبة سباق، لكن المرة الجاية إن شاء الله، نكون مطمئن بفضل هالمجهودات. 😌 مهم، لا تنسوا تشوفوا الفيديو وتشاركوه مع أحبابكم، لأنو كل واحد يستحق أنو يعرف آخر الأخبار حول البنية التحتية في بلادنا. https://www.youtube.com/watch?v=u4l--GDmt5U #بجاية #منعرجات_خراطة #الطريق_الوطني_رقم_9 #InfrastructureAlger
    Like
    Love
    Wow
    Angry
    Sad
    1كيلو بايت
    · 1 التعليقات ·0 المشاركات
  • سلام يا جماعة!

    حبّيت نشارك معاكم خبر مهم يخص المستثمرين في XPLR Infrastructure، المعروفين سابقاً بـ Nextera Energy Partners. إذا كنت من الناس اللي شراو وحداتهم بين سبتمبر 2023 ويناير 2025، راهو الوقت تسرع! عندكم deadline في 8 سبتمبر 2025 باش تحصلوا على النصيحة القانونية قبل ما تتخذوا أي قرار.

    شفت كيفاش القضايا المالية تقدر تأثر على المستثمرين، و شخصياً كان عندي تجربة مشابهة خلتني أكثر وعيًا. التعاون مع محامي متمكن يقدر يفرّق بين النجاح والفشل، خاصة في عالم الاستثمارات هذا.

    المسؤولية على عاتقكم، خليكم دايماً مستعدين!

    https://www.globenewswire.com/news-release/2025/08/26/3139551/673/en/ROSEN-A-LEADING-LAW-FIRM-Encourages-XPLR-Infrastructure-LP-f-k-a-Nextera-Energy-Partners-LP-Investors-to-Secure-Counsel-Before-Important-Deadline-in-Securities-Class-
    🚀 سلام يا جماعة! حبّيت نشارك معاكم خبر مهم يخص المستثمرين في XPLR Infrastructure، المعروفين سابقاً بـ Nextera Energy Partners. إذا كنت من الناس اللي شراو وحداتهم بين سبتمبر 2023 ويناير 2025، راهو الوقت تسرع! عندكم deadline في 8 سبتمبر 2025 باش تحصلوا على النصيحة القانونية قبل ما تتخذوا أي قرار. شفت كيفاش القضايا المالية تقدر تأثر على المستثمرين، و شخصياً كان عندي تجربة مشابهة خلتني أكثر وعيًا. التعاون مع محامي متمكن يقدر يفرّق بين النجاح والفشل، خاصة في عالم الاستثمارات هذا. المسؤولية على عاتقكم، خليكم دايماً مستعدين! https://www.globenewswire.com/news-release/2025/08/26/3139551/673/en/ROSEN-A-LEADING-LAW-FIRM-Encourages-XPLR-Infrastructure-LP-f-k-a-Nextera-Energy-Partners-LP-Investors-to-Secure-Counsel-Before-Important-Deadline-in-Securities-Class-
    www.globenewswire.com
    NEW YORK, Aug. 26, 2025 (GLOBE NEWSWIRE) -- WHY: New York, N.Y., August 26, 2025. Rosen Law Firm, a global investor rights law firm, reminds purchasers of common units of XPLR Infrastructure, LP f/k/a Nextera Energy Partners, LP (NYSE: XIFR, NEP)
    Like
    Love
    Wow
    Angry
    Sad
    714
    · 1 التعليقات ·0 المشاركات
  • يا جماعة، نحب نشارك معكم موضوع مهم في عالم الذكاء الاصطناعي!

    المقال تحت عنوان "Reimagining secure infrastructure for advanced AI" يتحدث عن كيفاش نقدروا نوفروا الأمن للبنية التحتية للذكاء الاصطناعي المتطور. نحتاجوا نستثمروا في ستة تدابير أمنية تضمن حماية الأنظمة هذه من أي تهديد.

    "الأمان هو أساس الثقة" وبهذا المفهوم، نقدروا نفكروا في كيفاش نستخدم الذكاء الاصطناعي في مجالات متنوعة كما الصحة، التعليم، وحتى الأمن السيبراني. شخصياً، شفت كيفاش الذكاء الاصطناعي يقدر يغيّر جوانب كبيرة من حياتنا، ولكن لازمنا نكونوا واعيين بالمخاطر ونحميوا التطورات هذه.

    خلينا نفكروا سوا في كيفية تحسين الأمان قبل ما نغوصوا أكثر في هذا العالم الجديد.

    https://openai.com/index/reimagining-secure-infrastructure-for-advanced-ai
    #أمان_الذكاء_الاصطناعي #InfrastructureSecurity #ArtificialIntelligence #
    🚀 يا جماعة، نحب نشارك معكم موضوع مهم في عالم الذكاء الاصطناعي! المقال تحت عنوان "Reimagining secure infrastructure for advanced AI" يتحدث عن كيفاش نقدروا نوفروا الأمن للبنية التحتية للذكاء الاصطناعي المتطور. نحتاجوا نستثمروا في ستة تدابير أمنية تضمن حماية الأنظمة هذه من أي تهديد. 🤖✨ "الأمان هو أساس الثقة" وبهذا المفهوم، نقدروا نفكروا في كيفاش نستخدم الذكاء الاصطناعي في مجالات متنوعة كما الصحة، التعليم، وحتى الأمن السيبراني. شخصياً، شفت كيفاش الذكاء الاصطناعي يقدر يغيّر جوانب كبيرة من حياتنا، ولكن لازمنا نكونوا واعيين بالمخاطر ونحميوا التطورات هذه. خلينا نفكروا سوا في كيفية تحسين الأمان قبل ما نغوصوا أكثر في هذا العالم الجديد. https://openai.com/index/reimagining-secure-infrastructure-for-advanced-ai #أمان_الذكاء_الاصطناعي #InfrastructureSecurity #ArtificialIntelligence #
    openai.com
    Securing advanced AI systems will require an evolution in infrastructure security. We’re calling for research and investment in six security measures that we believe will play key roles in protecting advanced AI. Protecting, exploring, and applying
    Like
    Love
    Wow
    Sad
    Angry
    570
    · 1 التعليقات ·0 المشاركات
  • Transport aérien: Lancement du vol inaugural de Domestic Airlines à destination de Tamanrasset

    Le vol commercial inaugural de la compagnie aérienne Domestic Airlines sur la ligne régulière Alger-Tamanrasset a été lancé lundi. La cérémonie de lancement de ce vol opéré par un Boeing 737-800 s’estdéroulée en présence du ministre des Transports, M. Saïd Sayoud, du PDG d’Air Algérie, M. Hamza Benhamouda, du directeur général de DomesticAirlines, M. Abdessamad Ourihane, et du PDG de la Société de gestion des services et infrastructures aéroportuaires d’Alger, M. Mokhtar Mediouni.En marge de l’événement, qui s’est déroulé à l’Aéroport international Houari-Boumediene, M. Sayoud a rappelé que Domestic Airlines, dont la
    flotte est composée d’avions d’Air Algérie et de Tassili Airlines, a été créée conformément aux instructions du président de
    la République, M. Abdelmadjid Tebboune, précisant que toutes les procédures administratives et juridiques pour la création de cette compagnie avaient
    été finalisées.شاهد المحتوى كاملا على الشروق أونلاينThe post Transport aérien: Lancement du vol inaugural de Domestic Airlines à destination de Tamanrasset appeared first on الشروق أونلاين.
    #transport #aérien #lancement #vol #inaugural
    Transport aérien: Lancement du vol inaugural de Domestic Airlines à destination de Tamanrasset
    Le vol commercial inaugural de la compagnie aérienne Domestic Airlines sur la ligne régulière Alger-Tamanrasset a été lancé lundi. La cérémonie de lancement de ce vol opéré par un Boeing 737-800 s’estdéroulée en présence du ministre des Transports, M. Saïd Sayoud, du PDG d’Air Algérie, M. Hamza Benhamouda, du directeur général de DomesticAirlines, M. Abdessamad Ourihane, et du PDG de la Société de gestion des services et infrastructures aéroportuaires d’Alger, M. Mokhtar Mediouni.En marge de l’événement, qui s’est déroulé à l’Aéroport international Houari-Boumediene, M. Sayoud a rappelé que Domestic Airlines, dont la flotte est composée d’avions d’Air Algérie et de Tassili Airlines, a été créée conformément aux instructions du président de la République, M. Abdelmadjid Tebboune, précisant que toutes les procédures administratives et juridiques pour la création de cette compagnie avaient été finalisées.شاهد المحتوى كاملا على الشروق أونلاينThe post Transport aérien: Lancement du vol inaugural de Domestic Airlines à destination de Tamanrasset appeared first on الشروق أونلاين. #transport #aérien #lancement #vol #inaugural
    Transport aérien: Lancement du vol inaugural de Domestic Airlines à destination de Tamanrasset
    www.echoroukonline.com
    Le vol commercial inaugural de la compagnie aérienne Domestic Airlines sur la ligne régulière Alger-Tamanrasset a été lancé lundi. La cérémonie de lancement de ce vol opéré par un Boeing 737-800 s’estdéroulée en présence du ministre des Transports, M. Saïd Sayoud, du PDG d’Air Algérie, M. Hamza Benhamouda, du directeur général de DomesticAirlines, M. Abdessamad Ourihane, et du PDG de la Société de gestion des services et infrastructures aéroportuaires d’Alger (SGSIA), M. Mokhtar Mediouni.En marge de l’événement, qui s’est déroulé à l’Aéroport international Houari-Boumediene, M. Sayoud a rappelé que Domestic Airlines, dont la flotte est composée d’avions d’Air Algérie et de Tassili Airlines (anciennement), a été créée conformément aux instructions du président de la République, M. Abdelmadjid Tebboune, précisant que toutes les procédures administratives et juridiques pour la création de cette compagnie avaient été finalisées.شاهد المحتوى كاملا على الشروق أونلاينThe post Transport aérien: Lancement du vol inaugural de Domestic Airlines à destination de Tamanrasset appeared first on الشروق أونلاين.
    Like
    Love
    Wow
    Sad
    Angry
    726
    · 2 التعليقات ·0 المشاركات
  • يا جماعة، تخيلوا معايا... رحت في مغامرة بالسيارة الكهربائية في عمق الطبيعة!

    المقال هذا يتكلم عن كيف أن "الكهرباء" ولات مش مشكل في الرحلات الطويلة، وحتى في الأماكن البعيدة. يعني تقدر تدير "Great American Road Trip" بدون ما تخاف من نقص الطاقة. الشحن ولا ساهل وينما رحت، وعلى فكرة، هذي حاجة تفرح!

    أنا شخصياً، جربت نروح للمناطق النائية بالـEV، والحق أقولكم كانت تجربة مدهشة. الطبيعة كانت تحكي معايا، والشحن كان موجود كيف كيف!

    ما تنساوش، العالم يتغير، والخيارات تتوسع. فكروا في المستقبل كيفاش راح يكون مع السيارات الكهربائية!

    https://www.wsj.com/business/autos/electric-vehicle-rivian-charging-infrastructure-b90be73a?mod=rss_Technology

    #سيارات_كهربائية #تكنولوجيا #مغامرات #طبيعة #EV
    🚗🌲 يا جماعة، تخيلوا معايا... رحت في مغامرة بالسيارة الكهربائية في عمق الطبيعة! 😍 المقال هذا يتكلم عن كيف أن "الكهرباء" ولات مش مشكل في الرحلات الطويلة، وحتى في الأماكن البعيدة. يعني تقدر تدير "Great American Road Trip" بدون ما تخاف من نقص الطاقة. الشحن ولا ساهل وينما رحت، وعلى فكرة، هذي حاجة تفرح! أنا شخصياً، جربت نروح للمناطق النائية بالـEV، والحق أقولكم كانت تجربة مدهشة. الطبيعة كانت تحكي معايا، والشحن كان موجود كيف كيف! ما تنساوش، العالم يتغير، والخيارات تتوسع. فكروا في المستقبل كيفاش راح يكون مع السيارات الكهربائية! https://www.wsj.com/business/autos/electric-vehicle-rivian-charging-infrastructure-b90be73a?mod=rss_Technology #سيارات_كهربائية #تكنولوجيا #مغامرات #طبيعة #EV
    www.wsj.com
    Charging deserts are going away. It’s now possible to embark on a Great American Road Trip in an electric vehicle.
    Like
    Love
    Wow
    Sad
    Angry
    396
    · 1 التعليقات ·0 المشاركات
  • يا جماعة، عندي خبر جديد يهم كل مسؤول في مجال التكنولوجيا!

    شفتوا كيف ميتا (Meta) وقعت صفقة مع جوجل تتجاوز 10 مليار دولار لتعزيز البنية التحتية للذكاء الاصطناعي؟ هذي الصفقة راح تعطي دفعة كبيرة في تطوير التقنيات الحديثة ونقدر نقول إنها خطوة كبيرة في المنافسة بين الشركات. يعني ميتا مش جالس بلا ما يتحرك، وراها طموحات كبيرة!

    بالنسبة لي، نحب نشوف الابتكارات اللي تجي من هذي التحالفات، بصراحة، التقدم في الذكاء الاصطناعي يمكن يغير كل شيء في حياتنا اليومية، سواء في الشغل أو حتى في الترفيه. شكون ما يحبش الذكاء الاصطناعي يخدمنا أكثر ويسهل علينا حياتنا؟

    فكروا في المستقبل اللي يجي مع هذي التحولات!

    https://forbesmiddleeast.com/innovation/consumer-tech/meta-signs-$10b-cloud-deal-with-google-to-boost-ai-infrastructure

    #ذكاء_اصطناعي #Meta #Google #تكنولوجيا #Innovation
    🚀 يا جماعة، عندي خبر جديد يهم كل مسؤول في مجال التكنولوجيا! شفتوا كيف ميتا (Meta) وقعت صفقة مع جوجل تتجاوز 10 مليار دولار لتعزيز البنية التحتية للذكاء الاصطناعي؟ هذي الصفقة راح تعطي دفعة كبيرة في تطوير التقنيات الحديثة ونقدر نقول إنها خطوة كبيرة في المنافسة بين الشركات. يعني ميتا مش جالس بلا ما يتحرك، وراها طموحات كبيرة! بالنسبة لي، نحب نشوف الابتكارات اللي تجي من هذي التحالفات، بصراحة، التقدم في الذكاء الاصطناعي يمكن يغير كل شيء في حياتنا اليومية، سواء في الشغل أو حتى في الترفيه. شكون ما يحبش الذكاء الاصطناعي يخدمنا أكثر ويسهل علينا حياتنا؟ فكروا في المستقبل اللي يجي مع هذي التحولات! 🤔 https://forbesmiddleeast.com/innovation/consumer-tech/meta-signs-$10b-cloud-deal-with-google-to-boost-ai-infrastructure #ذكاء_اصطناعي #Meta #Google #تكنولوجيا #Innovation
    forbesmiddleeast.com
    Meta Signs Over $10B Cloud Deal With Google To Boost AI Infrastructure, Says Report
    Like
    Love
    Wow
    Angry
    Sad
    543
    · 1 التعليقات ·0 المشاركات
  • Hot Topics at Hot Chips: Inference, Networking, AI Innovation at Every Scale — All Built on NVIDIA

    AI reasoning, inference and networking will be top of mind for attendees of next week’s Hot Chips conference.
    A key forum for processor and system architects from industry and academia, Hot Chips — running Aug. 24-26 at Stanford University — showcases the latest innovations poised to advance AI factories and drive revenue for the trillion-dollar data center computing market.
    At the conference, NVIDIA will join industry leaders including Google and Microsoft in a “tutorial” session — taking place on Sunday, Aug. 24 — that discusses designing rack-scale architecture for data centers.
    In addition, NVIDIA experts will present at four sessions and one tutorial detailing how:

    NVIDIA networking, including the NVIDIA ConnectX-8 SuperNIC, delivers AI reasoning at rack- and data-center scale.Neural rendering advancements and massive leaps in inference — powered by the NVIDIA Blackwell architecture, including the NVIDIA GeForce RTX 5090 GPU — provide next-level graphics and simulation capabilities.Co-packaged opticsswitches with integrated silicon photonics — built with light-speed fiber rather than copper wiring to send information quicker and using less power — enable efficient, high-performance, gigawatt-scale AI factories. The talk will also highlight NVIDIA Spectrum-XGS Ethernet, a new scale-across technology for unifying distributed data centers into AI super-factories.The NVIDIA GB10 Superchip serves as the engine within the NVIDIA DGX Spark desktop supercomputer.It’s all part of how NVIDIA’s latest technologies are accelerating inference to drive AI innovation everywhere, at every scale.
    NVIDIA Networking Fosters AI Innovation at Scale
    AI reasoning — when artificial intelligence systems can analyze and solve complex problems through multiple AI inference passes — requires rack-scale performance to deliver optimal user experiences efficiently.
    In data centers powering today’s AI workloads, networking acts as the central nervous system, connecting all the components — servers, storage devices and other hardware — into a single, cohesive, powerful computing unit.
    NVIDIA ConnectX-8 SuperNIC
    Burstein’s Hot Chips session will dive into how NVIDIA networking technologies — particularly NVIDIA ConnectX-8 SuperNICs — enable high-speed, low-latency, multi-GPU communication to deliver market-leading AI reasoning performance at scale.
    As part of the NVIDIA networking platform, NVIDIA NVLink, NVLink Switch and NVLink Fusion deliver scale-up connectivity — linking GPUs and compute elements within and across servers for ultra low-latency, high-bandwidth data exchange.
    NVIDIA Spectrum-X Ethernet provides the scale-out fabric to connect entire clusters, rapidly streaming massive datasets into AI models and orchestrating GPU-to-GPU communication across the data center. Spectrum-XGS Ethernet scale-across technology extends the extreme performance and scale of Spectrum-X Ethernet to interconnect multiple, distributed data centers to form AI super-factories capable of giga-scale intelligence.
    Connecting distributed AI data centers with NVIDIA Spectrum-XGS Ethernet.
    At the heart of Spectrum-X Ethernet, CPO switches push the limits of performance and efficiency for AI infrastructure at scale, and will be covered in detail by Shainer in his talk.
    NVIDIA GB200 NVL72 — an exascale computer in a single rack — features 36 NVIDIA GB200 Superchips, each containing two NVIDIA B200 GPUs and an NVIDIA Grace CPU, interconnected by the largest NVLink domain ever offered, with NVLink Switch providing 130 terabytes per second of low-latency GPU communications for AI and high-performance computing workloads.
    An NVIDIA rack-scale system.
    Built with the NVIDIA Blackwell architecture, GB200 NVL72 systems deliver massive leaps in reasoning inference performance.
    NVIDIA Blackwell and CUDA Bring AI to Millions of Developers
    The NVIDIA GeForce RTX 5090 GPU — also powered by Blackwell and to be covered in Blackstein’s talk — doubles performance in today’s games with NVIDIA DLSS 4 technology.
    NVIDIA GeForce RTX 5090 GPU
    It can also add neural rendering features for games to deliver up to 10x performance, 10x footprint amplification and a 10x reduction in design cycles,  helping enhance realism in computer graphics and simulation. This offers smooth, responsive visual experiences at low energy consumption and improves the lifelike simulation of characters and effects.
    NVIDIA CUDA, the world’s most widely available computing infrastructure, lets users deploy and run AI models using NVIDIA Blackwell anywhere.
    Hundreds of millions of GPUs run CUDA across the globe, from NVIDIA GB200 NVL72 rack-scale systems to GeForce RTX– and NVIDIA RTX PRO-powered PCs and workstations, with NVIDIA DGX Spark powered by NVIDIA GB10 — discussed in Skende’s session — coming soon.
    From Algorithms to AI Supercomputers — Optimized for LLMs
    NVIDIA DGX Spark
    Delivering powerful performance and capabilities in a compact package, DGX Spark lets developers, researchers, data scientists and students push the boundaries of generative AI right at their desktops, and accelerate workloads across industries.
    As part of the NVIDIA Blackwell platform, DGX Spark brings support for NVFP4, a low-precision numerical format to enable efficient agentic AI inference, particularly of large language models. Learn more about NVFP4 in this NVIDIA Technical Blog.
    Open-Source Collaborations Propel Inference Innovation
    NVIDIA accelerates several open-source libraries and frameworks to accelerate and optimize AI workloads for LLMs and distributed inference. These include NVIDIA TensorRT-LLM, NVIDIA Dynamo, TileIR, Cutlass, the NVIDIA Collective Communication Library and NIX — which are integrated into millions of workflows.
    Allowing developers to build with their framework of choice, NVIDIA has collaborated with top open framework providers to offer model optimizations for FlashInfer, PyTorch, SGLang, vLLM and others.
    Plus, NVIDIA NIM microservices are available for popular open models like OpenAI’s gpt-oss and Llama 4,  making it easy for developers to operate managed application programming interfaces with the flexibility and security of self-hosting models on their preferred infrastructure.
    Learn more about the latest advancements in inference and accelerated computing by joining NVIDIA at Hot Chips.
     
    #hot #topics #chips #inference #networking
    Hot Topics at Hot Chips: Inference, Networking, AI Innovation at Every Scale — All Built on NVIDIA
    AI reasoning, inference and networking will be top of mind for attendees of next week’s Hot Chips conference. A key forum for processor and system architects from industry and academia, Hot Chips — running Aug. 24-26 at Stanford University — showcases the latest innovations poised to advance AI factories and drive revenue for the trillion-dollar data center computing market. At the conference, NVIDIA will join industry leaders including Google and Microsoft in a “tutorial” session — taking place on Sunday, Aug. 24 — that discusses designing rack-scale architecture for data centers. In addition, NVIDIA experts will present at four sessions and one tutorial detailing how: NVIDIA networking, including the NVIDIA ConnectX-8 SuperNIC, delivers AI reasoning at rack- and data-center scale.Neural rendering advancements and massive leaps in inference — powered by the NVIDIA Blackwell architecture, including the NVIDIA GeForce RTX 5090 GPU — provide next-level graphics and simulation capabilities.Co-packaged opticsswitches with integrated silicon photonics — built with light-speed fiber rather than copper wiring to send information quicker and using less power — enable efficient, high-performance, gigawatt-scale AI factories. The talk will also highlight NVIDIA Spectrum-XGS Ethernet, a new scale-across technology for unifying distributed data centers into AI super-factories.The NVIDIA GB10 Superchip serves as the engine within the NVIDIA DGX Spark desktop supercomputer.It’s all part of how NVIDIA’s latest technologies are accelerating inference to drive AI innovation everywhere, at every scale. NVIDIA Networking Fosters AI Innovation at Scale AI reasoning — when artificial intelligence systems can analyze and solve complex problems through multiple AI inference passes — requires rack-scale performance to deliver optimal user experiences efficiently. In data centers powering today’s AI workloads, networking acts as the central nervous system, connecting all the components — servers, storage devices and other hardware — into a single, cohesive, powerful computing unit. NVIDIA ConnectX-8 SuperNIC Burstein’s Hot Chips session will dive into how NVIDIA networking technologies — particularly NVIDIA ConnectX-8 SuperNICs — enable high-speed, low-latency, multi-GPU communication to deliver market-leading AI reasoning performance at scale. As part of the NVIDIA networking platform, NVIDIA NVLink, NVLink Switch and NVLink Fusion deliver scale-up connectivity — linking GPUs and compute elements within and across servers for ultra low-latency, high-bandwidth data exchange. NVIDIA Spectrum-X Ethernet provides the scale-out fabric to connect entire clusters, rapidly streaming massive datasets into AI models and orchestrating GPU-to-GPU communication across the data center. Spectrum-XGS Ethernet scale-across technology extends the extreme performance and scale of Spectrum-X Ethernet to interconnect multiple, distributed data centers to form AI super-factories capable of giga-scale intelligence. Connecting distributed AI data centers with NVIDIA Spectrum-XGS Ethernet. At the heart of Spectrum-X Ethernet, CPO switches push the limits of performance and efficiency for AI infrastructure at scale, and will be covered in detail by Shainer in his talk. NVIDIA GB200 NVL72 — an exascale computer in a single rack — features 36 NVIDIA GB200 Superchips, each containing two NVIDIA B200 GPUs and an NVIDIA Grace CPU, interconnected by the largest NVLink domain ever offered, with NVLink Switch providing 130 terabytes per second of low-latency GPU communications for AI and high-performance computing workloads. An NVIDIA rack-scale system. Built with the NVIDIA Blackwell architecture, GB200 NVL72 systems deliver massive leaps in reasoning inference performance. NVIDIA Blackwell and CUDA Bring AI to Millions of Developers The NVIDIA GeForce RTX 5090 GPU — also powered by Blackwell and to be covered in Blackstein’s talk — doubles performance in today’s games with NVIDIA DLSS 4 technology. NVIDIA GeForce RTX 5090 GPU It can also add neural rendering features for games to deliver up to 10x performance, 10x footprint amplification and a 10x reduction in design cycles,  helping enhance realism in computer graphics and simulation. This offers smooth, responsive visual experiences at low energy consumption and improves the lifelike simulation of characters and effects. NVIDIA CUDA, the world’s most widely available computing infrastructure, lets users deploy and run AI models using NVIDIA Blackwell anywhere. Hundreds of millions of GPUs run CUDA across the globe, from NVIDIA GB200 NVL72 rack-scale systems to GeForce RTX– and NVIDIA RTX PRO-powered PCs and workstations, with NVIDIA DGX Spark powered by NVIDIA GB10 — discussed in Skende’s session — coming soon. From Algorithms to AI Supercomputers — Optimized for LLMs NVIDIA DGX Spark Delivering powerful performance and capabilities in a compact package, DGX Spark lets developers, researchers, data scientists and students push the boundaries of generative AI right at their desktops, and accelerate workloads across industries. As part of the NVIDIA Blackwell platform, DGX Spark brings support for NVFP4, a low-precision numerical format to enable efficient agentic AI inference, particularly of large language models. Learn more about NVFP4 in this NVIDIA Technical Blog. Open-Source Collaborations Propel Inference Innovation NVIDIA accelerates several open-source libraries and frameworks to accelerate and optimize AI workloads for LLMs and distributed inference. These include NVIDIA TensorRT-LLM, NVIDIA Dynamo, TileIR, Cutlass, the NVIDIA Collective Communication Library and NIX — which are integrated into millions of workflows. Allowing developers to build with their framework of choice, NVIDIA has collaborated with top open framework providers to offer model optimizations for FlashInfer, PyTorch, SGLang, vLLM and others. Plus, NVIDIA NIM microservices are available for popular open models like OpenAI’s gpt-oss and Llama 4,  making it easy for developers to operate managed application programming interfaces with the flexibility and security of self-hosting models on their preferred infrastructure. Learn more about the latest advancements in inference and accelerated computing by joining NVIDIA at Hot Chips.   #hot #topics #chips #inference #networking
    Hot Topics at Hot Chips: Inference, Networking, AI Innovation at Every Scale — All Built on NVIDIA
    blogs.nvidia.com
    AI reasoning, inference and networking will be top of mind for attendees of next week’s Hot Chips conference. A key forum for processor and system architects from industry and academia, Hot Chips — running Aug. 24-26 at Stanford University — showcases the latest innovations poised to advance AI factories and drive revenue for the trillion-dollar data center computing market. At the conference, NVIDIA will join industry leaders including Google and Microsoft in a “tutorial” session — taking place on Sunday, Aug. 24 — that discusses designing rack-scale architecture for data centers. In addition, NVIDIA experts will present at four sessions and one tutorial detailing how: NVIDIA networking, including the NVIDIA ConnectX-8 SuperNIC, delivers AI reasoning at rack- and data-center scale. (Featuring Idan Burstein, principal architect of network adapters and systems-on-a-chip at NVIDIA) Neural rendering advancements and massive leaps in inference — powered by the NVIDIA Blackwell architecture, including the NVIDIA GeForce RTX 5090 GPU — provide next-level graphics and simulation capabilities. (Featuring Marc Blackstein, senior director of architecture at NVIDIA) Co-packaged optics (CPO) switches with integrated silicon photonics — built with light-speed fiber rather than copper wiring to send information quicker and using less power — enable efficient, high-performance, gigawatt-scale AI factories. The talk will also highlight NVIDIA Spectrum-XGS Ethernet, a new scale-across technology for unifying distributed data centers into AI super-factories. (Featuring Gilad Shainer, senior vice president of networking at NVIDIA) The NVIDIA GB10 Superchip serves as the engine within the NVIDIA DGX Spark desktop supercomputer. (Featuring Andi Skende, senior distinguished engineer at NVIDIA) It’s all part of how NVIDIA’s latest technologies are accelerating inference to drive AI innovation everywhere, at every scale. NVIDIA Networking Fosters AI Innovation at Scale AI reasoning — when artificial intelligence systems can analyze and solve complex problems through multiple AI inference passes — requires rack-scale performance to deliver optimal user experiences efficiently. In data centers powering today’s AI workloads, networking acts as the central nervous system, connecting all the components — servers, storage devices and other hardware — into a single, cohesive, powerful computing unit. NVIDIA ConnectX-8 SuperNIC Burstein’s Hot Chips session will dive into how NVIDIA networking technologies — particularly NVIDIA ConnectX-8 SuperNICs — enable high-speed, low-latency, multi-GPU communication to deliver market-leading AI reasoning performance at scale. As part of the NVIDIA networking platform, NVIDIA NVLink, NVLink Switch and NVLink Fusion deliver scale-up connectivity — linking GPUs and compute elements within and across servers for ultra low-latency, high-bandwidth data exchange. NVIDIA Spectrum-X Ethernet provides the scale-out fabric to connect entire clusters, rapidly streaming massive datasets into AI models and orchestrating GPU-to-GPU communication across the data center. Spectrum-XGS Ethernet scale-across technology extends the extreme performance and scale of Spectrum-X Ethernet to interconnect multiple, distributed data centers to form AI super-factories capable of giga-scale intelligence. Connecting distributed AI data centers with NVIDIA Spectrum-XGS Ethernet. At the heart of Spectrum-X Ethernet, CPO switches push the limits of performance and efficiency for AI infrastructure at scale, and will be covered in detail by Shainer in his talk. NVIDIA GB200 NVL72 — an exascale computer in a single rack — features 36 NVIDIA GB200 Superchips, each containing two NVIDIA B200 GPUs and an NVIDIA Grace CPU, interconnected by the largest NVLink domain ever offered, with NVLink Switch providing 130 terabytes per second of low-latency GPU communications for AI and high-performance computing workloads. An NVIDIA rack-scale system. Built with the NVIDIA Blackwell architecture, GB200 NVL72 systems deliver massive leaps in reasoning inference performance. NVIDIA Blackwell and CUDA Bring AI to Millions of Developers The NVIDIA GeForce RTX 5090 GPU — also powered by Blackwell and to be covered in Blackstein’s talk — doubles performance in today’s games with NVIDIA DLSS 4 technology. NVIDIA GeForce RTX 5090 GPU It can also add neural rendering features for games to deliver up to 10x performance, 10x footprint amplification and a 10x reduction in design cycles,  helping enhance realism in computer graphics and simulation. This offers smooth, responsive visual experiences at low energy consumption and improves the lifelike simulation of characters and effects. NVIDIA CUDA, the world’s most widely available computing infrastructure, lets users deploy and run AI models using NVIDIA Blackwell anywhere. Hundreds of millions of GPUs run CUDA across the globe, from NVIDIA GB200 NVL72 rack-scale systems to GeForce RTX– and NVIDIA RTX PRO-powered PCs and workstations, with NVIDIA DGX Spark powered by NVIDIA GB10 — discussed in Skende’s session — coming soon. From Algorithms to AI Supercomputers — Optimized for LLMs NVIDIA DGX Spark Delivering powerful performance and capabilities in a compact package, DGX Spark lets developers, researchers, data scientists and students push the boundaries of generative AI right at their desktops, and accelerate workloads across industries. As part of the NVIDIA Blackwell platform, DGX Spark brings support for NVFP4, a low-precision numerical format to enable efficient agentic AI inference, particularly of large language models (LLMs). Learn more about NVFP4 in this NVIDIA Technical Blog. Open-Source Collaborations Propel Inference Innovation NVIDIA accelerates several open-source libraries and frameworks to accelerate and optimize AI workloads for LLMs and distributed inference. These include NVIDIA TensorRT-LLM, NVIDIA Dynamo, TileIR, Cutlass, the NVIDIA Collective Communication Library and NIX — which are integrated into millions of workflows. Allowing developers to build with their framework of choice, NVIDIA has collaborated with top open framework providers to offer model optimizations for FlashInfer, PyTorch, SGLang, vLLM and others. Plus, NVIDIA NIM microservices are available for popular open models like OpenAI’s gpt-oss and Llama 4,  making it easy for developers to operate managed application programming interfaces with the flexibility and security of self-hosting models on their preferred infrastructure. Learn more about the latest advancements in inference and accelerated computing by joining NVIDIA at Hot Chips.  
    Like
    Love
    Wow
    Angry
    Sad
    332
    · 2 التعليقات ·0 المشاركات
  • صحابتي وصحابي! عندكم فكرة جديدة في عالم ML، والموضوع هاد المرة يخص "Amazon SageMaker HyperPod"!

    في المقال هذا، نتكلموا على ثلاث ميزات جديدة في SageMaker HyperPod اللي تعزز scalability وcustomizability في البنية التحتية للـ ML. مع الcontinuous provisioning، تقدروا تبدأوا تدربوا وتطلقوا نماذجكم أسرع وبطريقة أكثر كفاءة. وزيدوا مع custom AMIs، راكم تقدروا توافقوا بيئات ML مع المعايير الأمنية والمعدات البرمجية تاع مؤسستكم.

    بصراحة، لما جربت هاذ المميزات، حسيت بفرق هائل! السرعة والدقة زادوا بشكل كبير، وولّيت نقدر نركز على الإبداع أكثر!

    يلا، خليونا نفكروا كيفاش نقدروا نستفيدوا من هاذ الابتكارات ونطوّروا شغلنا!

    https://aws.amazon.com/blogs/machine-learning/amazon-sagemaker-hyperpod-enhances-ml-infrastructure-with-scalability-and-customizability/

    #MachineLearning #SageMaker #Innovation
    🔥 صحابتي وصحابي! عندكم فكرة جديدة في عالم ML، والموضوع هاد المرة يخص "Amazon SageMaker HyperPod"! 🌟 في المقال هذا، نتكلموا على ثلاث ميزات جديدة في SageMaker HyperPod اللي تعزز scalability وcustomizability في البنية التحتية للـ ML. مع الcontinuous provisioning، تقدروا تبدأوا تدربوا وتطلقوا نماذجكم أسرع وبطريقة أكثر كفاءة. وزيدوا مع custom AMIs، راكم تقدروا توافقوا بيئات ML مع المعايير الأمنية والمعدات البرمجية تاع مؤسستكم. بصراحة، لما جربت هاذ المميزات، حسيت بفرق هائل! السرعة والدقة زادوا بشكل كبير، وولّيت نقدر نركز على الإبداع أكثر! يلا، خليونا نفكروا كيفاش نقدروا نستفيدوا من هاذ الابتكارات ونطوّروا شغلنا! https://aws.amazon.com/blogs/machine-learning/amazon-sagemaker-hyperpod-enhances-ml-infrastructure-with-scalability-and-customizability/ #MachineLearning #SageMaker #Innovation
    aws.amazon.com
    In this post, we introduced three features in SageMaker HyperPod that enhance scalability and customizability for ML infrastructure. Continuous provisioning offers flexible resource provisioning to help you start training and deploying your models fa
    Like
    Love
    Wow
    Sad
    Angry
    122
    · 1 التعليقات ·0 المشاركات
  • يا جماعة، شفتوا الفيديو الأخير على الإنهيار المأساوي للجسر في الصين؟

    أحداث مؤلمة، 10 أرواح راحت بسبب حادث مأساوي في مشروع قيد الإنشاء. هاد الكارثة تخلينا نفكروا في أهمية السلامة في مواقع العمل، خاصة في المشاريع الضخمة. كما قالوا: "السلامة أولاً"، وهادي لازم تكون قاعدة عند أي مشروع.

    ما نقدرش ننكر أن مثل هاد الحوادث تخلينا نتساءل عن المسؤوليات وكيفاش نقدروا نتفادوا مثل هاد الأمور في المستقبل. صحيح أننا رايحين صوب التقدم والتكنولوجيا، لكن السلامة تبقى الأولوية.

    كان لازم نتبّعوا دروس من هاد الحادث، ونتمنوا السلامة للجميع في جميع المشاريع.

    https://www.elbilad.net/international/فيديو-10-قتلى-بانهيار-جسر-قيد-الإنشاء-في-الصين-140964
    #سلامة_المشاريع #جسور #SafetyFirst #Infrastructures #ChinaCollapse
    يا جماعة، شفتوا الفيديو الأخير على الإنهيار المأساوي للجسر في الصين؟ 😢 أحداث مؤلمة، 10 أرواح راحت بسبب حادث مأساوي في مشروع قيد الإنشاء. هاد الكارثة تخلينا نفكروا في أهمية السلامة في مواقع العمل، خاصة في المشاريع الضخمة. كما قالوا: "السلامة أولاً"، وهادي لازم تكون قاعدة عند أي مشروع. ما نقدرش ننكر أن مثل هاد الحوادث تخلينا نتساءل عن المسؤوليات وكيفاش نقدروا نتفادوا مثل هاد الأمور في المستقبل. صحيح أننا رايحين صوب التقدم والتكنولوجيا، لكن السلامة تبقى الأولوية. كان لازم نتبّعوا دروس من هاد الحادث، ونتمنوا السلامة للجميع في جميع المشاريع. https://www.elbilad.net/international/فيديو-10-قتلى-بانهيار-جسر-قيد-الإنشاء-في-الصين-140964 #سلامة_المشاريع #جسور #SafetyFirst #Infrastructures #ChinaCollapse
    Like
    Love
    Wow
    Angry
    Sad
    426
    · 1 التعليقات ·0 المشاركات
  • واش راكم يا أحبابي؟ اليوم حبيت نشارك معاكم موضوع شاب يخص الذكاء الاصطناعي!

    في مقالة جديدة، تكلموا على كيفاش شركة Delphi، اللي عندها رؤيا كبيرة بتاع "Digital Minds"، تمكنت من تجاوز الفوضى في البيانات بفضل Pinecone. يعني، كيفاش قدروا ينظموا المعلومات بطريقة سهلة تسمح لهم بالتوسع والنمو.

    شخصيا، هاد الموضوع يخليني نفكر في قوة البيانات في عالم اليوم. كي نتخيل عدد المعلومات اللي نقدروا نخلقوها، وعلاش يكون التنظيم شيء أساسي، بصح كي نشوفوا الابتكارات مثل هادي، نحس بالأمل في المستقبل.

    ديروا في بالكم، كل فكرة صغيرة تقدر تفتح أبواب جديدة!

    https://venturebeat.com/data-infrastructure/how-ai-digital-minds-startup-delphi-stopped-drowning-in-user-data-and-scaled-up-with-pinecone/
    #ذكاء_اصطناعي #البيانات #تكنولوجيا #DigitalMinds #Pinecone
    🚀 واش راكم يا أحبابي؟ اليوم حبيت نشارك معاكم موضوع شاب يخص الذكاء الاصطناعي! في مقالة جديدة، تكلموا على كيفاش شركة Delphi، اللي عندها رؤيا كبيرة بتاع "Digital Minds"، تمكنت من تجاوز الفوضى في البيانات بفضل Pinecone. يعني، كيفاش قدروا ينظموا المعلومات بطريقة سهلة تسمح لهم بالتوسع والنمو. شخصيا، هاد الموضوع يخليني نفكر في قوة البيانات في عالم اليوم. كي نتخيل عدد المعلومات اللي نقدروا نخلقوها، وعلاش يكون التنظيم شيء أساسي، بصح كي نشوفوا الابتكارات مثل هادي، نحس بالأمل في المستقبل. ديروا في بالكم، كل فكرة صغيرة تقدر تفتح أبواب جديدة! https://venturebeat.com/data-infrastructure/how-ai-digital-minds-startup-delphi-stopped-drowning-in-user-data-and-scaled-up-with-pinecone/ #ذكاء_اصطناعي #البيانات #تكنولوجيا #DigitalMinds #Pinecone
    venturebeat.com
    Delphi envisions millions of Digital Minds active across domains and audiences. Pinecone sees its database as the retrieval layer.
    1 التعليقات ·0 المشاركات
  • RIKEN, Japan’s Leading Science Institute, Taps Fujitsu and NVIDIA for Next Flagship Supercomputer

    Japan is once again building a landmark high-performance computing system — not simply by chasing speed, but by rethinking how technology can best serve the nation’s most urgent scientific needs.
    At the FugakuNEXT International Initiative Launch Ceremony held in Tokyo on Aug. 22, leaders from RIKEN, Japan’s top research institute, announced the start of an international collaboration with Fujitsu and NVIDIA to co-design FugakuNEXT, the successor to the world-renowned supercomputer, Fugaku.
    Awarded early in the process, the contract enables the partners to work side by side in shaping the system’s architecture to address Japan’s most critical research priorities — from earth systems modeling and disaster resilience to drug discovery and advanced manufacturing.
    More than an upgrade, the effort will highlight Japan’s embrace of modern AI and showcase Japanese innovations that can be harnessed by researchers and enterprises across the globe.
    The ceremony featured remarks from the initiative’s leaders, RIKEN President Makoto Gonokami and Satoshi Matsuoka, director of the RIKEN Center for Computational Science and one of Japan’s most respected high-performance computing architects.
    Fujitsu Chief Technology Officer Vivek Mahajan attended, emphasizing the company’s role in advancing Japan’s computing capabilities.
    Ian Buck, vice president of hyperscale and high-performance computing at NVIDIA, attended in person as well to discuss the collaborative design approach and how the resulting platform will serve as a foundation for innovation well into the next decade.
    Momentum has been building. When NVIDIA founder and CEO Jensen Huang touched down in Tokyo last year, he called on Japan to seize the moment — to put NVIDIA’s latest technologies to work building its own AI, on its own soil, with its own infrastructure.
    FugakuNEXT answers that call, drawing on NVIDIA’s whole software stack —  from NVIDIA CUDA-X libraries such as NVIDIA cuQuantum for quantum simulation, RAPIDS for data science, NVIDIA TensorRT for high-performance inference and NVIDIA NeMo for large language model development, to other domain-specific software development kits tailored for science and industry.
    Innovations pioneered on FugakuNEXT could become blueprints for the world.
    What’s Inside
    FugakuNEXT will be a hybrid AI-HPC system, combining simulation and AI workloads.
    It will feature FUJITSU-MONAKA-X CPUs, which can be paired with NVIDIA technologies using NVLink Fusion, new silicon enabling high-bandwidth connections between Fujitsu’s CPUs and NVIDIA’s architecture.
    The system will be built for speed, scale and efficiency.
    What It Will Do
    FugakuNEXT will support a wide range of applications — such as automating hypothesis generation, code creation and experiment simulation.

    Scientific research: Accelerating simulations with surrogate models and physics-informed neural networks.
    Manufacturing: Using AI to learn from simulations to generate efficient and aesthetically pleasing designs faster than ever before.
    Earth systems modeling: aiding disaster preparedness and prediction for earthquakes and severe weather, and more.

    RIKEN, Fujitsu and NVIDIA will collaborate on software developments, including tools for mixed-precision computing, continuous benchmarking, and performance optimization.
    FugakuNEXT isn’t just a technical upgrade — it’s a strategic investment in Japan’s future.
    Backed by Japan’s MEXT, it will serve universities, government agencies, and industry partners nationwide.
    It marks the start of a new era in Japanese supercomputing — one built on sovereign infrastructure, global collaboration, and a commitment to scientific leadership.
    Image courtesy of RIKEN
    #riken #japans #leading #science #institute
    RIKEN, Japan’s Leading Science Institute, Taps Fujitsu and NVIDIA for Next Flagship Supercomputer
    Japan is once again building a landmark high-performance computing system — not simply by chasing speed, but by rethinking how technology can best serve the nation’s most urgent scientific needs. At the FugakuNEXT International Initiative Launch Ceremony held in Tokyo on Aug. 22, leaders from RIKEN, Japan’s top research institute, announced the start of an international collaboration with Fujitsu and NVIDIA to co-design FugakuNEXT, the successor to the world-renowned supercomputer, Fugaku. Awarded early in the process, the contract enables the partners to work side by side in shaping the system’s architecture to address Japan’s most critical research priorities — from earth systems modeling and disaster resilience to drug discovery and advanced manufacturing. More than an upgrade, the effort will highlight Japan’s embrace of modern AI and showcase Japanese innovations that can be harnessed by researchers and enterprises across the globe. The ceremony featured remarks from the initiative’s leaders, RIKEN President Makoto Gonokami and Satoshi Matsuoka, director of the RIKEN Center for Computational Science and one of Japan’s most respected high-performance computing architects. Fujitsu Chief Technology Officer Vivek Mahajan attended, emphasizing the company’s role in advancing Japan’s computing capabilities. Ian Buck, vice president of hyperscale and high-performance computing at NVIDIA, attended in person as well to discuss the collaborative design approach and how the resulting platform will serve as a foundation for innovation well into the next decade. Momentum has been building. When NVIDIA founder and CEO Jensen Huang touched down in Tokyo last year, he called on Japan to seize the moment — to put NVIDIA’s latest technologies to work building its own AI, on its own soil, with its own infrastructure. FugakuNEXT answers that call, drawing on NVIDIA’s whole software stack —  from NVIDIA CUDA-X libraries such as NVIDIA cuQuantum for quantum simulation, RAPIDS for data science, NVIDIA TensorRT for high-performance inference and NVIDIA NeMo for large language model development, to other domain-specific software development kits tailored for science and industry. Innovations pioneered on FugakuNEXT could become blueprints for the world. What’s Inside FugakuNEXT will be a hybrid AI-HPC system, combining simulation and AI workloads. It will feature FUJITSU-MONAKA-X CPUs, which can be paired with NVIDIA technologies using NVLink Fusion, new silicon enabling high-bandwidth connections between Fujitsu’s CPUs and NVIDIA’s architecture. The system will be built for speed, scale and efficiency. What It Will Do FugakuNEXT will support a wide range of applications — such as automating hypothesis generation, code creation and experiment simulation. Scientific research: Accelerating simulations with surrogate models and physics-informed neural networks. Manufacturing: Using AI to learn from simulations to generate efficient and aesthetically pleasing designs faster than ever before. Earth systems modeling: aiding disaster preparedness and prediction for earthquakes and severe weather, and more. RIKEN, Fujitsu and NVIDIA will collaborate on software developments, including tools for mixed-precision computing, continuous benchmarking, and performance optimization. FugakuNEXT isn’t just a technical upgrade — it’s a strategic investment in Japan’s future. Backed by Japan’s MEXT, it will serve universities, government agencies, and industry partners nationwide. It marks the start of a new era in Japanese supercomputing — one built on sovereign infrastructure, global collaboration, and a commitment to scientific leadership. Image courtesy of RIKEN #riken #japans #leading #science #institute
    RIKEN, Japan’s Leading Science Institute, Taps Fujitsu and NVIDIA for Next Flagship Supercomputer
    blogs.nvidia.com
    Japan is once again building a landmark high-performance computing system — not simply by chasing speed, but by rethinking how technology can best serve the nation’s most urgent scientific needs. At the FugakuNEXT International Initiative Launch Ceremony held in Tokyo on Aug. 22, leaders from RIKEN, Japan’s top research institute, announced the start of an international collaboration with Fujitsu and NVIDIA to co-design FugakuNEXT, the successor to the world-renowned supercomputer, Fugaku. Awarded early in the process, the contract enables the partners to work side by side in shaping the system’s architecture to address Japan’s most critical research priorities — from earth systems modeling and disaster resilience to drug discovery and advanced manufacturing. More than an upgrade, the effort will highlight Japan’s embrace of modern AI and showcase Japanese innovations that can be harnessed by researchers and enterprises across the globe. The ceremony featured remarks from the initiative’s leaders, RIKEN President Makoto Gonokami and Satoshi Matsuoka, director of the RIKEN Center for Computational Science and one of Japan’s most respected high-performance computing architects. Fujitsu Chief Technology Officer Vivek Mahajan attended, emphasizing the company’s role in advancing Japan’s computing capabilities. Ian Buck, vice president of hyperscale and high-performance computing at NVIDIA, attended in person as well to discuss the collaborative design approach and how the resulting platform will serve as a foundation for innovation well into the next decade. Momentum has been building. When NVIDIA founder and CEO Jensen Huang touched down in Tokyo last year, he called on Japan to seize the moment — to put NVIDIA’s latest technologies to work building its own AI, on its own soil, with its own infrastructure. FugakuNEXT answers that call, drawing on NVIDIA’s whole software stack —  from NVIDIA CUDA-X libraries such as NVIDIA cuQuantum for quantum simulation, RAPIDS for data science, NVIDIA TensorRT for high-performance inference and NVIDIA NeMo for large language model development, to other domain-specific software development kits tailored for science and industry. Innovations pioneered on FugakuNEXT could become blueprints for the world. What’s Inside FugakuNEXT will be a hybrid AI-HPC system, combining simulation and AI workloads. It will feature FUJITSU-MONAKA-X CPUs, which can be paired with NVIDIA technologies using NVLink Fusion, new silicon enabling high-bandwidth connections between Fujitsu’s CPUs and NVIDIA’s architecture. The system will be built for speed, scale and efficiency. What It Will Do FugakuNEXT will support a wide range of applications — such as automating hypothesis generation, code creation and experiment simulation. Scientific research: Accelerating simulations with surrogate models and physics-informed neural networks. Manufacturing: Using AI to learn from simulations to generate efficient and aesthetically pleasing designs faster than ever before. Earth systems modeling: aiding disaster preparedness and prediction for earthquakes and severe weather, and more. RIKEN, Fujitsu and NVIDIA will collaborate on software developments, including tools for mixed-precision computing, continuous benchmarking, and performance optimization. FugakuNEXT isn’t just a technical upgrade — it’s a strategic investment in Japan’s future. Backed by Japan’s MEXT (Ministry of Education, Culture, Sports, Science and Technology), it will serve universities, government agencies, and industry partners nationwide. It marks the start of a new era in Japanese supercomputing — one built on sovereign infrastructure, global collaboration, and a commitment to scientific leadership. Image courtesy of RIKEN
    2 التعليقات ·0 المشاركات
الصفحات المعززة
ollo https://www.ollo.ws