وتسعى شركات الذكاء الاصطناعي مثل OpenAI إلى التغلب على التأخيرات والتحديات غير المتوقعة في ملاحقة نماذج لغوية متزايدة الضخامة من خلال تطوير تقنيات التدريب التي تستخدم أساليب أكثر شبهاً بالإنسان لتمكين الخوارزميات من “التفكير”.
وقال العشرات من علماء وباحثي ومستثمري الذكاء الاصطناعي لرويترز إنهم يعتقدون أن هذه التقنيات، التي تقف وراء نموذج o1 الذي أطلقته شركة OpenAI مؤخرًا، يمكن أن تعيد تشكيل سباق التسلح للذكاء الاصطناعي، ولها آثار على أنواع الموارد التي تطلبها شركات الذكاء الاصطناعي بشدة. ، بدءاً من الطاقة إلى أنواع الرقائق.
بعد إطلاق برنامج الدردشة التفاعلي ChatGPT قبل عامين، أكدت شركات التكنولوجيا، التي استفادت تقييماتها بشكل كبير من ازدهار الذكاء الاصطناعي، علناً أن “توسيع نطاق” النماذج الحالية من خلال إضافة المزيد من البيانات والقدرة الحاسوبية من شأنه أن يعمل باستمرار على تحسين نماذج الذكاء الاصطناعي. لكن الآن، يتحدث بعض أبرز علماء الذكاء الاصطناعي علنًا عن القيود المفروضة على فلسفة “الأكبر هو الأفضل”.
أخبر إيليا سوتسكيفر، المؤسس المشارك لمختبرات الذكاء الاصطناعي Safe Superintelligence (SSI) وOpenAI، رويترز مؤخرًا أن النتائج ناتجة عن توسيع نطاق التدريب المسبق – وهي مرحلة تدريب نموذج الذكاء الاصطناعي الذي يستخدم كمية هائلة من البيانات غير المسماة لفهم أنماط اللغة وهياكلها. – استقرت.
يُنسب إلى Sutskever على نطاق واسع باعتباره من أوائل المدافعين عن تحقيق قفزات هائلة في تطوير الذكاء الاصطناعي التوليدي من خلال استخدام المزيد من البيانات وقوة الحوسبة في التدريب المسبق، مما أدى في النهاية إلى إنشاء ChatGPT.
غادر Sutskever OpenAI في وقت سابق من هذا العام لتأسيس SSI.
“لقد كان العقد الأول من القرن الحادي والعشرين عصر التوسع، والآن عدنا إلى عصر العجب والاكتشاف مرة أخرى.
وقال سوتسكيفر: “الجميع يبحث عن الشيء التالي”. “إن توسيع نطاق الشيء الصحيح مهم الآن أكثر من أي وقت مضى.”
ورفض Sutskever مشاركة المزيد من التفاصيل حول كيفية معالجة فريقه لهذه المشكلة، بخلاف القول إن SSI تعمل على نهج بديل لتوسيع التدريب المسبق.
خلف الكواليس، واجه الباحثون في مختبرات الذكاء الاصطناعي الكبرى تأخيرات ونتائج مخيبة للآمال في السباق لإصدار نموذج لغوي رئيسي يتفوق على نموذج GPT-4 الخاص بـ OpenAI، والذي يبلغ عمره عامين تقريبًا، وفقًا لثلاثة مصادر مطلعة على الأمور الخاصة.
إن ما يسمى “عمليات التدريب” للنماذج الكبيرة يمكن أن تكلف عشرات الملايين من الدولارات عن طريق تشغيل مئات الرقائق في وقت واحد. وهم أكثر عرضة للفشل الناجم عن الأجهزة بسبب تعقيد النظام؛ وقد لا يعرف الباحثون الأداء النهائي للنماذج حتى نهاية العملية، الأمر الذي قد يستغرق شهورًا.
والمشكلة الأخرى هي أن النماذج اللغوية الكبيرة تستهلك كميات هائلة من البيانات، كما استنفدت نماذج الذكاء الاصطناعي جميع البيانات التي يمكن الوصول إليها بسهولة في العالم. كما أدى نقص الطاقة إلى إعاقة عمليات التدريب، حيث تتطلب العملية كميات هائلة من الطاقة.
للتغلب على هذه التحديات، يستكشف الباحثون “حساب وقت الاختبار”، وهي تقنية تعمل على تعزيز نماذج الذكاء الاصطناعي الحالية خلال ما يسمى بمرحلة “الاستدلال”، أو عندما يكون النموذج قيد الاستخدام. على سبيل المثال، بدلاً من اختيار إجابة واحدة على الفور، يمكن للنموذج إنشاء وتقييم احتمالات متعددة في الوقت الفعلي، واختيار المسار الأفضل للمضي قدمًا في النهاية.
خلف الكواليس، واجه الباحثون في مختبرات الذكاء الاصطناعي الكبرى تأخيرات ونتائج مخيبة للآمال في السباق لإصدار نموذج لغوي رئيسي يتفوق على نموذج GPT-4 الخاص بـ OpenAI، والذي يبلغ عمره عامين تقريبًا، وفقًا لثلاثة مصادر مطلعة على الأمور الخاصة.
إن ما يسمى “عمليات التدريب” للنماذج الكبيرة يمكن أن تكلف عشرات الملايين من الدولارات عن طريق تشغيل مئات الرقائق في وقت واحد. وهم أكثر عرضة للفشل الناجم عن الأجهزة بسبب تعقيد النظام؛ وقد لا يعرف الباحثون الأداء النهائي للنماذج حتى نهاية العملية، الأمر الذي قد يستغرق شهورًا.
والمشكلة الأخرى هي أن النماذج اللغوية الكبيرة تستهلك كميات هائلة من البيانات، كما استنفدت نماذج الذكاء الاصطناعي جميع البيانات التي يمكن الوصول إليها بسهولة في العالم. كما أدى نقص الطاقة إلى إعاقة عمليات التدريب، حيث تتطلب العملية كميات هائلة من الطاقة.
للتغلب على هذه التحديات، يستكشف الباحثون “حساب وقت الاختبار”، وهي تقنية تعمل على تعزيز نماذج الذكاء الاصطناعي الحالية خلال ما يسمى بمرحلة “الاستدلال”، أو عندما يكون النموذج قيد الاستخدام. على سبيل المثال، بدلاً من اختيار إجابة واحدة على الفور، يمكن للنموذج إنشاء وتقييم احتمالات متعددة في الوقت الفعلي، واختيار المسار الأفضل للمضي قدمًا في النهاية.
تسمح هذه الطريقة للنماذج بتخصيص المزيد من قوة المعالجة للمهام الصعبة مثل الرياضيات أو مشاكل الترميز أو العمليات المعقدة التي تتطلب تفكيرًا وصنع قرار يشبه الإنسان.
قال نوام براون، الباحث في OpenAI الذي عمل في مجال البوكر: “اتضح أن جعل الروبوت يفكر لمدة 20 ثانية فقط في لعبة البوكر حصل على نفس الأداء المعزز مثل توسيع نطاق النموذج 100 ألف مرة وتدريبه لفترة أطول 100 ألف مرة”. في o1، في مؤتمر TED AI في سان فرانسيسكو الشهر الماضي.
اعتمدت شركة OpenAI هذه التقنية في نموذجها الذي تم إصداره حديثًا والمعروف باسم “o1″، والمعروف سابقًا باسم Q* وStrawberry، والذي نشرته رويترز لأول مرة في يوليو. يمكن لنموذج O1 “التفكير” في المشكلات بطريقة متعددة الخطوات، على غرار الإنسان ويتضمن أيضًا استخدام البيانات والتعليقات التي تم جمعها من حملة الدكتوراه وخبراء الصناعة.
وقالت الشركة إن الصلصة السرية لسلسلة o1 هي مجموعة أخرى من التمارين التي يتم إجراؤها على نماذج “أساسية” مثل GPT-4، وتقول الشركة إنها تخطط لتطبيق هذه التقنية على نماذج أساسية أكبر وأكبر.
وفي الوقت نفسه، كان الباحثون في مختبرات الذكاء الاصطناعي الرئيسية الأخرى، من Anthropic وxAI وGoogle DeepMind، يعملون أيضًا على تطوير إصداراتهم الخاصة من التكنولوجيا، وفقًا لخمسة أشخاص مطلعين على الجهود.
وقال كيفن ويل، كبير مسؤولي المنتجات في OpenAI، في مؤتمر تقني في أكتوبر: “إننا نرى الكثير من الثمار الدانية التي يمكننا قطفها لتحسين هذه النماذج بسرعة كبيرة”. “بحلول الوقت الذي يلحق فيه الناس بالركب، سنحاول أن نكون متقدمين بثلاث خطوات.”
ولم تستجب جوجل وxAI لطلبات التعليق ولم يكن لدى Anthropic تعليق فوري.
يمكن أن تغير الآثار المشهد التنافسي لأجهزة الذكاء الاصطناعي، والتي يهيمن عليها حتى الآن الطلب النهم على رقائق الذكاء الاصطناعي من إنفيديا. يلاحظ مستثمرو رأس المال الاستثماري البارزون، من سيكويا إلى أندريسن هورويتز، الذين أنفقوا المليارات لتمويل تطوير باهظ الثمن لنماذج الذكاء الاصطناعي في العديد من مختبرات الذكاء الاصطناعي بما في ذلك OpenAI وxAI، هذا التحول ويزنون التأثير على رهاناتهم باهظة الثمن.
وذكرت رويترز أن “هذا التحول سينقلنا من عالم المجموعات الضخمة قبل التدريب إلى سحابات الاستدلال، والتي يتم توزيعها على خوادم سحابية للاستدلال”. وقالت سونيا هوانغ، الشريكة في سيكويا كابيتال:
أدى الطلب على رقائق الذكاء الاصطناعي الأكثر تقدمًا من NVIDIA إلى زيادة صعودها لتصبح الشركة الأكثر قيمة في العالم، متجاوزة شركة Apple في أكتوبر.
على عكس رقائق التدريب، حيث تهيمن شركة Nvidia، قد تواجه شركة الرقائق العملاقة المزيد من المنافسة في سوق الاستدلال.
وعندما سُئلت عن التأثير المحتمل على الطلب على منتجاتها، أشارت Nvidia إلى العروض التقديمية الأخيرة للشركة حول أهمية التكنولوجيا وراء نموذج o1.
تحدث رئيسها التنفيذي، جنسن هوانغ، عن الطلب المتزايد على استخدام رقائقها للاستدلال.
وقال هوانغ الشهر الماضي في مؤتمر في الهند، في إشارة إلى أعمال الشركة: “لقد اكتشفنا الآن قانونًا ثانيًا للتوسع، وهو قانون التوسع في زمن الاستدلال. كل هذه العوامل أدت إلى ارتفاع الطلب بشكل لا يصدق على بلاكويل”. أحدث رقائق الذكاء الاصطناعي.
للمزيد : تابعنا هنا ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر .
مصدر المعلومات والصور: socialpress