google.com, pub-6069403238080384, DIRECT, f08c47fec0942fa0
منوعات

رئيس جوجل السابق يحذر من الـAI.. ويؤكد: "لن يتمكن البشر من مراقبته"

القاهرة: «سوشيال بريس»

حذر رئيس شركة جوجل السابق من مخاطر الذكاء الاصطناعي، زاعمًا أن البشر “لن يكونوا قادرين على مراقبة” التكنولوجيا سريعة التطور. وقال إريك شميدت، الرئيس التنفيذي السابق لشركة التكنولوجيا العملاقة، إنه عندما يصل نظام الكمبيوتر إلى نقطة حيث يمكنه تحسين نفسه، “فنحن بحاجة جدية إلى التفكير في فصله”. .

شهد السباق لتحسين الذكاء الاصطناعي خطوات هائلة في السنوات الأخيرة، حيث وصف شميت هذا التقدم بأنه مدعاة للاحتفال. وقال لجورج ستيفانوبولوس في برنامج “هذا الأسبوع” على قناة ABC: “لم أر قط ابتكارًا كهذا”. وأضاف شميدت: “سنكون قادرين قريباً على تشغيل أجهزة الكمبيوتر”. “وحدها تقرر ما تريد أن تفعله.”

وتابع: “إن قوة هذا الذكاء… تعني أن كل شخص سيكون لديه ما يعادل الموسوعي في جيبه. نحن لا نعرف ما يعنيه إعطاء هذا النوع من القوة لكل فرد”.

يأتي ذلك بعد أن أخبر شميدت موقع AXIOS العام الماضي أن أجهزة الكمبيوتر التي تتخذ قراراتها بنفسها قد تكون على بعد أقل من أربع سنوات، وقال خبراء آخرون إن أقوى الأنظمة يمكن أن تعمل بذكاء مثل طالب الدكتوراه بحلول عام 2026. وقال شميت إنه على الرغم من استمرار الولايات المتحدة وفي الفوز بسباق الذكاء الاصطناعي، ومع التطور السريع للتكنولوجيا الصينية، فمن الأهمية بمكان أن “يفوز الغرب”.

كما نصح بتحديد “أسوأ الحالات الممكنة” وتطوير نظام مواز للمساعدة في مراقبة الحالة الأولى، مضيفا: “لن يتمكن البشر من مراقبة الذكاء الاصطناعي، لكن أنظمة الذكاء الاصطناعي يجب أن تكون قادرة على مراقبة الذكاء الاصطناعي”.

يأتي ذلك في الوقت الذي حذر فيه أحد محللي تكنولوجيا الذكاء الاصطناعي في الأسابيع الأخيرة من أننا على بعد خطوات قليلة من فك “الشفرات العصبية” التي تسمح للآلات بالتعلم بوعي مثل البشر.

يطرح مايكل أزوف هذه الحجة في كتابه الجديد، نحو الذكاء الاصطناعي على المستوى البشري: كيف يمكن لعلم الأعصاب أن يرشدنا في السعي وراء الذكاء العام الاصطناعي. وفقًا لأزوف، فإن إحدى الخطوات الرئيسية نحو إطلاق العنان لـ “الذكاء الاصطناعي على المستوى البشري” هي فهم “الشفرات العصبية”.
يصف المصطلح الطريقة التي تقوم بها أدمغتنا بتشفير المعلومات الحسية وأداء المهام المعرفية مثل التفكير وحل المشكلات.

سيناريو يوم القيامة

وتجري المحادثات على المستوى الفيدرالي للتأكد من أن اللوائح والبروتوكولات يمكنها إبقاء التكنولوجيا تحت السيطرة. لقد فاجأ ظهور ChatGPT ونجاحه منذ طرحه في الأسواق في نوفمبر 2022 العديد من الأشخاص في مجال الذكاء الاصطناعي، مما أدى إلى تسريع تطوير التكنولوجيا بشكل لا يقاس.

خبير الذكاء الاصطناعي ريشاب ميسرا، الذي عمل على التعلم الآلي لفوضى الشركة في المجتمع “في غضون عقد من الزمن”.

وقال ميسرا لصحيفة US Sun: “في المستقبل، مع إضافة المزيد من هذه القدرات، قد يكون لبعض التكوينات الخاطئة، أو الاستخدام غير المسؤول عن طريق إعطاء تعليمات خاطئة، أو تورط جهات فاعلة ضارة عواقب وخيمة، على غرار السيناريوهات التي قد تبدو فيها الروبوتات وكأنها روبوتات”. . لقد ذهبت المارقة.

“إذا تم اختراق هذه الروبوتات أو استخدامها لأغراض ضارة، فيمكنها نشر معلومات مضللة أو خطاب كراهية، أو إطلاق حملات بريد عشوائي، أو التلاعب بالأسواق المالية لانهيار الاقتصاد، أو حتى تنفيذ هجمات جسدية عن طريق التحكم في المركبات أو تشغيل الأسلحة”، وقد يقومون بعمل مقاطع فيديو. . تُظهر مقاطع الفيديو المزيفة سيناريوهات لم تحدث أبدًا للإضرار بسمعة شخص ما أو التسبب في حروب”.

ومع قدرة الروبوتات الذكية المستقبلية على تنفيذ التعليمات والمطالب بشكل أسرع من البشر، فإن نطاق تعطيل الاقتصادات أو التحريض على الكراهية كجزء من حيلة سياسية، على سبيل المثال، أصبح ضخما.

ويضيف ميسرا: “الخوف المتكرر الذي يظهر هو أن الروبوتات قد تصبح واعية بذاتها وتقرر أن خدمة البشر ليست ذات قيمة”. “قد يقومون بأفعال ضارة تجاه البشر في محاولة للوصول إلى هدف نهائي، ومن المفارقات أن البشر أنفسهم هم من يفعلون ذلك”. “فقط في ظل الاتجاهات الحالية للتقدم التكنولوجي، أعتقد أن فرص تحقيق الخوف الأخير قد تكون أكبر بكثير مقارنة بالخوف الأول في المستقبل”.

للمزيد : تابعنا هنا ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر .

مصدر المعلومات والصور: socialpress

 

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى