[IUCC-HPC] קירור שרתים

Vadim Malkin vadim.malkin at weizmann.ac.il
Mon Jan 31 13:59:23 IST 2022


שלום הנק,

אנחנו בחנו את הנושא הזה ומה שנדרש עבור המערכת הוא חדר שרתים חדש.
אין טעם לנסות להפוך חדר שרתים קיים שתוכנן כבר עם כל המערכות אלקטרו-מכאניות לimmersion cooling, אבל אם מקימים חדר שרתים חדש זאת אכן יכולה להיות אופציה מעניינת.

כמו כן האמירה שפתרון חוסך 50% מתצרוכת חשמל כללית של החדר היא ממש לא נכונה. עלות אנרגיה של מיזוג אוויר/קירור מים מגיעה ל30% מסך האנרגיה וimmersion cooling לא יהפוך את ה30% הללו ל0%.
לגבי נקודה של מאווררים – זה אומר שנידרש להזמין שרתים מיוחדים, ללא מאווררים, ולא ברור מה זה אומר מבחינת עלויות השרתים עצמם.
מה שנכון הוא שצ׳ילרים סטנדרטיים יוחלפו במחליפי חום של immersion cooling, אבל עקב מחסור בידע עם הציוד החדש בארץ לא בטוח שהתחזוקה השוטפת תהיה זולה יותר.
יתרון מובהק שיש לפתרון הנ״ל הוא יכולת לדחוס ציוד עם צריכה עד 100 קילו-וואט לארון סטנדרטי. בהינתן המעבדים האחרונים אכן הספק נדרש מארון יכול לעבור 50 קילו-וואט. דרך אגב עוד נתון לא נכון שמופיע במייל הוא שארון בודד רגיל צורך 8-10 קילו-וואט, אנחנו עובדים עם ארונות של 30 קילו-וואט.
גם הנושא של free cooling לא עומד במבחן המציאות, לפחות לא בישראל. הדיאגרמה מדברת על טמפרטורה מינימלית של 32 מעלות ובחודשי הקיץ אנחנו נמצאים מן הסתם מעבר לטמפרטורה הזאת.

הייתי שמח לארגן פגישה עם מוסדות שכבר יישמו את הטכנולוגיה הזאת ולשמוע מהם לגבי חווית שימוש.
Thanks,
Vadim


From: Hpc-list <hpc-list-bounces at nocvm.ilan.net.il> on behalf of Hank Nussbacher <hank at mail.iucc.ac.il>
Date: Monday, 31 January 2022 at 11:18
To: "hpc-list at nocvm.ilan.net.il" <hpc-list at nocvm.ilan.net.il>
Subject: [IUCC-HPC] קירור שרתים

קבלתי חומר בנושא קירור שרתים – ראו צרופה.

חומר נוסף:
Sustainable Compute
infrastructure for -
Next Generation Data Center
https://drive.google.com/file/d/1CeE8Ri5xkpisNFpd3oyTq_tIiS-En29o/view?usp=sharing

אם הנושא מעניין אתכם אני יכול להזמין את ליאור גנדל לזום שלנו ב- 24.2
נא להודיע לי במייל.

בברכה,
הנק
-------------- next part --------------
An HTML attachment was scrubbed...
URL: <http://nocvm.iucc.ac.il/pipermail/hpc-list/attachments/20220131/c067a6b0/attachment.htm>


More information about the Hpc-list mailing list