Image

إن إنهاء عمل آلة بشكل مفاجئ لا يعني بالضرورة مجرد سحب قابسها الكهربائي

Bread assortment مصدر الصورة: جيمس كريدلاند

نعلم أن الذكاء الاصطناعي هو أفضل وسيلة لأتمتة الكثير من المهام المعقدة، مثل إضافة إشارات إلى ملايين الصور على فيسبوك، أو الروبوتات التي تتعلم المشي. وقد بدأت تتزايد مهارة علماء الحواسيب والروبوتات في صياغة هذه الخوارزميات بشكل مطرد وسريع للغاية، ما يعني أنه حان الوقت للتفكير بكيفية منع الذكاء الاصطناعي من التسبب بالأذى.

أطلقت جوجل ديب مايند في 2016، بالتعاون مع معهد مستقبل البشرية، دراسة تحدد كيفية إيقاف الذكاء الاصطناعي لخوارزمية أو روبوت في حال بدأ يتصرف بشكل متفلت. الاستنتاج؟ يجب أن يكون لدينا زر أحمر كبير للطوارئ.

تشير هذه الدراسة إلى بحث أجري سابقاً في 2013، حيث أدركت خوارزمية للعب أنها إذا طبقت الإيقاف المؤقت ضمن لعبة تيتريس، فمن المستحيل أن تخسر. وهذا السلوك المخادع واستغلال الثغرات من قبل الآلات هو بالضبط ما يقول معهد مستقبل البشرية أنه سيحدث. وقد ألف المؤسس، نيك بوستروم، كتاباً اسمه “Superintelligence”، أي الذكاء الخارق، ويحذر في هذا الكتاب أنه إذا تعلم الذكاء الاصطناعي كيفية التعلم بشكل ذاتي، سيصبح قادراً على التعلم بسرعة هائلة تجعله متفوقاً على البشر بفارق كبير. حتى أن هذا الحدث أشير إليه بكلمة التفرد، وهو مصطلح استخدم لأول مرة عام 1958 من قبل عالم الرياضيات ستانيسلو يولام.

إن إنهاء عمل آلة بشكل مفاجئ لا يعني بالضرورة مجرد سحب قابسها الكهربائي، ففي أي سيناريو متوقع يكون فيه الذكاء الاصطناعي خطيراً بما يكفي ليتسبب بالأذى، سيكون هذا الذكاء ذاتي التحكم أو ضمن مجموعة مخدمات. وبدلاً من هذا، يستنتج الباحثون في “ديب مايند” ومعهد مستقبل البشرية أنه علينا أن نخدع الآلة.

لتحقيق ذلك، يجب على العلماء الذين يصممون الخوارزمية تنصيب “آلية مقاطعة”، أو نبضة تسمح للبشر بأن “يغيروا سلوك الذكاء الاصطناعي نفسه بشكل مؤقت وإجباري”. أي أنها إشارة تجعل الآلة تظن أنها يجب أن تتوقف. وبدلاً من اتباع أمر خارجي، يتخذ قرار التوقف داخلياً من قبل الآلة نفسها، على الرغم من أنها تعرضت للخداع حتى تفعل هذا. قد يكون هذا مربكاً بعض الشيء، ولكنه وسيلة للتغلب على روبوت توقف عن تلقي الأوامر من البشر.

يضيف الباحثون أنه يجب أن تكون هذه الإشارة خاصة بالشركة بحيث لا يقوم بإرسالها إلا من يمتلكون الذكاء الاصطناعي، بدلاً من إشارة يمكن للجميع إرسالها في أي وقت. ويشيرون إلى وجود جهاز تحكم عن بعد، قد يكون هو “زر الطوارئ الأحمر الكبير” الذي ذكر سابقاً.

بالطبع، لن يعمل هذا الإجراء إلا في سيناريوهات معينة. فإذا وصل ذكاء اصطناعي إلى مرحلة التفرد، فمن المرجح أن يكون قادراً على قراءة هذه الدراسة وإزالة آلية المقاطعة. بالطبع، فإن جزءاً كبيراً من هذا البحث قائم على التكهنات، بما أن البنية المحددة لذكاء اصطناعي عام غير موجودة بعد، ولكن الحذر واتخاذ الاحتياطات اللازمة يعتبر دائماً أمراً جيداً.

error: Content is protected !!