آخر تحديث: 27 / 4 / 2025م - 12:07 ص

هل يمكن للذكاء الاصطناعي ”تدمير البشرية“؟ ”جوجل“ تحذر

جهات الإخبارية

حذر الرئيس التنفيذي لشركة ”ديب مايند“ المتخصصة في الذكاء الاصطناعي والتابعة لشركة ”جوجل“ الأمريكية، ديميس هاسابيس، من أن الذكاء الاصطناعي العام ”AGI“، الذي يتمتع بقدرات تضاهي أو تفوق الذكاء البشري، قد يبدأ بالظهور خلال فترة تتراوح بين خمس وعشر سنوات مقبلة.

وأشار إلى أن هذا التطور النوعي قد يشكل أخطاراً جسيمة محتملة، قد تصل إلى حد التهديد الوجودي للبشرية، مما يستدعي تحركاً دولياً منظماً.

ودعا هاسابيس في هذا الصدد إلى ضرورة المبادرة بإنشاء منظمة دولية جامعة، على غرار هيئة الأمم المتحدة، تتولى مهمة الإشراف والمتابعة الدقيقة لتطوير هذا النوع المتقدم من الذكاء الاصطناعي.

وتأتي هذه التحذيرات متسقة مع ما ورد في ورقة بحثية حديثة صادرة عن ”جوجل ديب مايند“، شارك في تأليفها المؤسس المشارك للشركة، شين ليج.

حيث توقعت الورقة أنه ”نظراً للتأثير الهائل المحتمل للذكاء الاصطناعي العام“، فإنه من المتوقع أن يحمل في طياته ”خطراً محتملاً لضرر جسيم“، لافتةً إلى أن المخاطر الوجودية التي قد ”تدمر البشرية إلى الأبد“ تعد أمثلة واضحة على هذا النوع من الضرر الجسيم المحتمل.

وعلى الرغم من هذا التحذير الصريح، لم تخض الورقة البحثية في تفاصيل الكيفية التي يمكن أن يؤدي بها الذكاء الاصطناعي العام إلى هذا السيناريو الكارثي، بل انصب تركيزها بشكل أساسي على استعراض التدابير الوقائية التي ينبغي على الشركات العاملة في مجال الذكاء الاصطناعي، وفي مقدمتها جوجل، الالتزام بها للحد من هذا التهديد المحتمل.

وصنفت الدراسة المخاطر المرتبطة بالذكاء الاصطناعي المتقدم ضمن أربع فئات رئيسية، تشمل ”سوء الاستخدام“ الذي قد يقدم عليه البشر، و”اختلال التوافق“ بين أهداف الذكاء الاصطناعي وقيم البشر، و”الأخطاء“ غير المتوقعة في عمل الأنظمة، بالإضافة إلى ”المخاطر الهيكلية“ المتعلقة بتأثير انتشار هذه التقنيات على بنية المجتمع.

كما أبرزت الورقة البحثية استراتيجية ”ديب مايند“ للتخفيف من هذه المخاطر، والتي تركز بشكل خاص على منع سيناريوهات ”سوء الاستخدام“، حيث يمكن لأفراد أو جماعات استغلال قدرات الذكاء الاصطناعي المتطورة لإلحاق الأذى بالآخرين.

وفي إطار دعوته الملحة لإنشاء آلية رقابة دولية فعالة، اقترح هاسابيس تبني هيكل متعدد المستويات. ودعا أولاً إلى تأسيس منظمة بحثية دولية على غرار المنظمة الأوروبية للأبحاث النووية ”سيرن“ ”CERN“، تُعنى بالتعاون الدولي رفيع المستوى في مجال أبحاث تطوير الذكاء الاصطناعي العام بشكل آمن.

واقترح أن يقترن ذلك بإنشاء مؤسسة رقابية أخرى شبيهة بالوكالة الدولية للطاقة الذرية ”IAEA“، تتولى مسؤولية مراقبة المشاريع التي قد تنطوي على مخاطر عالية والتعامل معها.

ودعا في نهاية المطاف إلى تأسيس هيئة إشرافية عالمية أوسع، تضم ممثلين من دول عديدة حول العالم، وتعمل تحت مظلة الأمم المتحدة كهيئة تقنية متخصصة، تكون مسؤولة عن وضع المعايير وتحديد كيفية استخدام هذه الأنظمة القوية ونشرها عالمياً بشكل مسؤول وآمن.