TodayPic

مجلة اخبارية

التكنولوجيا

شريحة جديدة من إنفيديا سوف تُحدِث نقلة في خفض تكاليف الذكاء الاصطناعي … عاجل



تاريخ النشر: 8 أغسطس 2023

أعلنت شركة إنفيديا اليوم الثلاثاء عن شريحة جديدة مصممة لتشغيل نماذج الذكاء الاصطناعي، وهي تأتي في إطار سعي الشركة للتفوق على المنافسين في مجال أجهزة الذكاء الاصطناعي، مثل: أمازون، وجوجل، وأمازون.

وبحسب بعض التقديرات، فإن شركة إنفيديا تهيمن حاليًا على سوق شرائح الذكاء الاصطناعي بحصة سوقية تزيد عن 80 في المئة.

يُذكر أن الشركة الأمريكية متخصصة في مجال وحدات معالجة الرسومات GPU التي أصبحت الشرائح المفضلة لنماذج اللغة الكبيرة التي تقوم عليها روبوتات الدردشة الخاصة بتقنية الذكاء الاصطناعي التوليدي، مثل: (شات جي بي تي) ChatGPT من (أوبن أي آي) OpenAI، و(بارد) Bard من جوجل.

ولكن شرائح إنفيديا غير متوافرة الآن بسبب أن عمالقة التقنية، ومقدمي الخدمات السحابية، والشركات الناشئة تتنافس على الحصول على أكبر قدر من الشرائح لتطوير نماذج الذكاء الاصطناعي الخاصة بها.

وتحتوي شريحة إنفيديا الجديدة، المسماة (جي إتش 200) GH200، على وحدة معالجة الرسومات نفسها التي تحتوي عليها شريحة الذكاء الاصطناعي المتطورة الحالية للشركة (إتش100) H100، ولكن (جي إتش 200) تجمع إلى وحدة معالجة الرسومات 141 جيجابايت من الذاكرة المتطورة، بالإضافة إلى وحدة معالجة مركزية بمعمارية (آرم) ARM لها 72 نواة.


موضوعات ذات صلة بما تقرأ الآن:

وقال (جينسين هوانج)، المدير التنفيذي لشركة إنفيديا في حديث له خلال مؤتمر اليوم الثلاثاء: «نحن نعطي هذا المعالج دفعة». وأضاف: «صُمم هذا المعالج لتوسيع نطاق مراكز البيانات العالمية».

ودون الإفصاح عن الأسعار، قال هوانج إن الشريحة الجديدة سوف تكون متاحة من موزعي إنفيديا في الربع الثاني من العام المقبل، وسوف تكون متاحة للمعاينة بحلول نهاية العام.

يُشار إلى أنه في كثير من الأحيان يُقسَّم سير العمل باستخدام نماذج الذكاء الاصطناعي إلى جزأين على الأقل: التدريب والاستدلال.

فأولًا تُدرَّب النماذج باستخدام كميات كبيرة من البيانات، وهي عملية قد تستغرق شهورًا وتتطلب أحيانًا الآلاف من وحدات معالجة الرسومات، مثل: شريحة (إتش100) و(أي100) من إنفيديا.

ثم يُستخدم النموذج في البرنامج لعمل تنبؤات أو إنشاء محتوى، وذلك باستخدام عملية تسمى الاستدلال.

وعلى غرار التدريب، يُعدّ الاستدلال مكلفًا من الناحية الحسابية، ويتطلب الكثير من قوة المعالجة في كل مرة يُشغَّل فيها البرنامج، وذلك كما هو الحال عندما يعمل على إنشاء نص أو صورة.

ولكن على عكس التدريب، يحدث الاستدلال على نحو شبه دائم، في حين يكون التدريب مطلوبًا فقط عندما يحتاج النموذج إلى التحديث.

وقال هوانج: «يمكنك أن تأخذ إلى حد كبير أي نموذج لغوي كبير تريده وتضعه في هذا (الشريحة) وسوف يقوم بالاستدلال بجنون». وأضاف: «إن تكلفة الاستدلال لنماذج اللغات الكبيرة سوف تنخفض بدرجة كبيرة».

وصُممت شركة (جي إتش 200) الجديدة للقيام بعملية الاستدلال خاصةً، ذلك أنها تحتوي على سعة كبرى من الذاكرة، مما يسمح بوضع نماذج أكبر للذكاء الاصطناعي في نظام واحد.

يُشار إلى أن هذا الإعلان يأتي في الوقت الذي أعلنت فيه شركة (أي إم دي) AMD، المنافسة الرئيسة لإنفيديا في سوق وحدات معالجة الرسومات، حديثًا عن شريحة (إم آي 300 إكس) MI300X الموجهة لمجال الذكاء الاصطناعي، والتي يمكنها دعم 192 جيجابايت من الذاكرة ويُسوَّق لقدرتها على الاستدلال في الذكاء الاصطناعي.

هذا، وتعمل شركات، مثل: جوجل، وأمازون أيضًا على تصميم شرائح الذكاء الاصطناعي الخاصة بها والمخصصة لقدرات الاستدلال.

https://www.youtube.com/watch?v=videoserieshttps://www.youtube.com/watch?v=videoseries

!function(f,b,e,v,n,t,s)
{if(f.fbq)return;n=f.fbq=function(){n.callMethod?
n.callMethod.apply(n,arguments):n.queue.push(arguments)};
if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′;
n.queue=[];t=b.createElement(e);t.async=!0;
t.src=v;s=b.getElementsByTagName(e)[0];
s.parentNode.insertBefore(t,s)}(window, document,’script’,
‘https://connect.facebook.net/en_US/fbevents.js’);
fbq(‘init’, ‘1318394974990933’);
fbq(‘track’, ‘PageView’);



Source link

اترك ردا

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *