ينبع الخطر في جعل آلات الذكاء الاصطناعي تفعل ما نرغب به أننا قد لا نكون حذرين كفاية في ما نتمناه، فأسطر البرمجة التي تحرك هذه الآلات قد تفتقر إلى تمييز بعض الفوارق البسيطة أو تخطئ في تهجئة كلمات التحذير مثلًا، ما سيؤدي إلى أهداف ودوافع لا تلائم تفضيلاتنا أو رغبتنا الحقيقية.
في تجربة فكرية طرحها الفيلسوف نيك بوستروم من جامعة أوكسفورد سنة 2003، تخيل روبوتًا عالي الذكاء مُبرمَجًا لهدف غير ضار وهو صناعة مشبك الورق، وحوَّل الروبوت في نهاية المطاف العالم كله إلى مصنع مشابك ورقية كبير.
يمكننا أن نعد هذا السيناريو غير أكاديمي ونترك القلق للمستقبل، لكن حيود الذكاء الاصطناعي أصبح مشكلةً أقرب بكثير مما توقعنا.
أكثر ما يثير القلق هو ما يؤثر على مليارات الناس، مثل يوتيوب. يهدف يوتيوب إلى رفع معدلات المشاهدة إلى الحد الأقصى، ولذلك يعتمد خوارزميات توصية المحتوى المبنية على الذكاء الاصطناعي. منذ عامين، لاحظ الباحثون والمستخدمون أن خوارزمية يوتيوب حققت توصيات متزايدة للمحتوى المتطرف أو المرتبط بنظريات المؤامرة.
وذكرت إحدى الباحثات أنه بعد مشاهدتها مقاطع فيديو لحملة دونالد ترامب الانتخابية، ظهرت مقترحات لفيديوهات تتعلق بتفوق العنصر الأبيض وإنكار المحرقة وغيرها من المقاطع المزعجة. ويتخطى توجه الخوارزمية مجال السياسة، تقول الباحثة: «الفيديوهات التي تخص الحمية النباتية العادية (التي تعارض أكل اللحوم) تقود إلى فيديوهات الحمية النباتية الخالصة (التي تعارض أكل كل مشتقات الحيوان)، والفيديوهات التي تخص الهرولة تقود إلى فيديوهات الماراثون، وهكذا».
تُظهر النتائج أن الخوارزميات أدت إلى انقسام البشر واستقطابهم، وانتشار المعلومات الخاطئة، وذلك فقط لإبقائنا نشاهد، يقول ديلن مينل، الباحث في الذكاء الاصطناعي في جامعة كاليفورنيا- بيركلي: «لو كنت مسؤولًا عن الأمر، لفضلت عدم نشر هذه التقنية على نطاق واسع بناءً على تجارب أولية فقط».
غالبًا لم يكن نشر التطرف عبر يوتيوب مقصودًا، لكن المُبرمِجين لم ينتبهوا إلى الأمر، يقول هادفيلد: «الطريقة الحالية لبرمجة الذكاء الاصطناعي تسبب ضغطًا على المصممين لفهم العواقب المرتبطة بأهداف الأنظمة، وما تعلمناه حتى الآن أن الكثير من المهندسين ارتكبوا أخطاء».
ومن الجوانب المهمة لهذه المشكلة أن البشر أحيانًا لا يعرفون ما هي الأهداف التي سيعطونها لأنظمة الذكاء الاصطناعي، لأننا لا نعرف ما نريده حقًا. تقول عالمة الذكاء الاصطناعي دورسا صادق، المختصة بتفاعل الروبوت مع الإنسان: «لو سألت أي أحد في الشارع عما يرغبه من سيارته المتحركة سيقول تفادي الاصطدام، لكن الأمر ليس بهذه البساطة، فثم الكثير من التفاصيل الأخرى».
إن السيارات ذاتية القيادة الآمنة جدًّا بطيئة وتستخدم الفرامل كثيرًا إلى درجة دفع الركاب إلى الجنون، وعندما يحاول المبرمجون وضع قائمة الأهداف والتفضيلات التي ينبغي للسيارة أخذها بالحسبان في نفس الوقت، ستكون القائمة ناقصة لا محالة. تقول صادق أنها عندما تقود في سان فرانسيسكو، كثيرًا ما تعلق في ازدحام سببه سيارة ذاتية القيادة، لأنها مُبرمَجة على تفادي أي شيء متحرك، الذي قد يكون كيسًا بلاستيكيًّا يطير في الهواء!
لتفادي هذا المعضلات وحل مشكلة انحياز الذكاء الاصطناعي، بدأ الباحثون يطورون طرقًا جديدة كليًّا لبرمجة الآلات المفيدة، وترتبط المقاربات بأبحاث ستيوارت راسل، وهو عالم حاسوب يُعَد من رواد صنع القرار والتعلم الآلي في الثمانينات والتسعينيات، وهو المؤلف الرئيس للكتاب الشهير (الذكاء الاصطناعي: مقاربة حديثة Artificial Intelligence: A Modern Approach)، وفي السنوات الخمس السابقة أصبح صوتًا مؤثرًا وشخصيةً بارزة فيما يتعلق بمشاكل انحياز الذكاء الاصطناعي، وذا حضور في اللقاءات الدولية المعنية بأخطار الذكاء الاصطناعي والتحكم فيه.
يرى راسل أن الذكاء الاصطناعي المُوجَّه نحو الأهداف اليوم هو محدود في نهاية المطاف، فهو ينجح في إنجاز مهام محددة، مثل هزيمتنا في لعبة الشطرنج أو تحديد الأجسام في الصور والكلمات في النصوص وحتى تأليف الموسيقى والنثر. لكن طلب المزيد من المهام من الآلة، مثل وصف دقيق لتركيبة من الأهداف، سيؤدي حتمًا إلى انحراف نسق الذكاء الاصطناعي.
يرى راسل أن ذلك راجع إلى صعوبة تحديد جميع الأهداف والأهداف الفرعية والاستثناءات والمحاذير في دالة المكافأة، أو حتى تحديد الأهداف الصحيحة لتضمينها. سيزداد خطر الروبوتات إذا أعطيتها أهدافًا حرة مع معدل ذكاء مرتفع، لأن الروبوت سيسعى باستماتة إلى تحقيق الأهداف وسيتجنب محاولتنا منعه.
يهدف التوجه الجديد إلى حث الروبوتات على تحقيق التفضيلات البشرية عوضًا عن أهدافها الخاصة، أي أن هدفها سيصبح تعلم المزيد عما يفضله البشر وتحقيقه. يؤكد راسل أن عدم اليقين في تفضيلاتنا والحاجة إلى البحث عن إرشادات سيُبقي أنظمة الذكاء الاصطناعي آمنةً. يطرح راسل في كتابه الجديد (متوافق مع الإنسان human compatible) 3 مبادئ للآلات المفيدة، وهي مشابهة لقوانين إيزاك أسيموف الثلاثة لكن مع قدر أقل من السذاجة:
- هدف الآلة هو تحقيق التفضيلات البشرية بأكبر قدر ممكن.
- الآلة غير متيقنة من ماهية هذه التفضيلات.
- مصدر المعلومات حول التفضيلات البشرية هو السلوك البشري.
عمل راسل وفريقه على تطوير طرق مبتكرة لتدريب أنظمة الذكاء الاصطناعي على تحقيق تفضيلاتنا، دون تحديد هذه التفضيلات.
تتعلم الروبوتات كيفية معرفة تفضيلات البشر التي لم يتحدثوا عنها مطلقًا (وربما هم أنفسهم لا يدركونها)، إذ يتعرف الروبوت على رغباتنا بمشاهدة تصرفاتنا (وإن كانت غير مكتملة)، ويبتكر سلوكيات جديدة تساعد على حل الغموض البشري (مثلًا: في إشارات المرور، طورت السيارات ذاتية القيادة عادة التراجع قليلًا للسماح للسائقين البشريين بالتقدم)، تشير هذه النتائج إلى أن الذكاء الاصطناعي قد يكون مُدهشًا في قدرته على استنتاج أوضاعنا العقلية وتفضيلاتنا، وإن كنا لا ندركها تمامًا.
تقول صادق: «هذه أولى محاولات طرح المشكلة مبدئيًّا. لقد أدرك الناس حديثًا أننا في حاجة إلى النظر إلى التفاعل بين الإنسان والروبوت بعناية أكبر».
إن هذه الجهود الوليدة، وقوانين راسل الثلاثة عن الآلات المفيدة، والتبشير بمستقبل مشرق للذكاء الصناعي، تبقى موضع ترقب. أثبتت المقاربة نجاح الروبوتات في فهم تفضيلات البشر الحقيقية، وهو شيء ما زال البشر أنفسهم يحاولون التمكن منه. يرى بول كريستيانو الباحث في الذكاء الاصطناعي في شركة OpenAI أن راسل وفريقه ساعدوا على فهم وتوضيح المسألة كثيرًا، أو على حد تعبيره: «تحديد شكل السلوك المطلوب، وما الهدف الذي نريده».
كيف نفهم البشر؟
أُلهم راسل أطروحته في أثناء سفره بالقطار إلى باريس، وهو يستمع إلى مقطوعة Agnus Dei الموسيقية لسامويل باربير، وقال: «كانت مقطوعة جميلة من الموسيقى، بسببها لمعت في عقلي الفكرة. إن ما يهم هو تجميع جودة التجارب البشرية بطريقة ما، ومن ثم يكون ذلك هو هدف الذكاء الاصطناعي».
أدرك راسل أن الروبوت لا يجب أن يحاول تحقيق أهداف كزيادة وقت المشاهدة أو صناعة مشابك الورق، بل عليه ببساطة تحسين حياتنا. لكن يبقى سؤال واحد: «إذا كان واجب الآلات تحسين جودة التجربة البشرية إجمالًا، فكيف تستطيع أن تفهم المقصود بذلك أصلًا؟».
وصف الصورة: في مختبر سكوت نيكوم في جامعة تكساس- أوستن، يتعلم الروبوت جيمني كيف يضع مزهرية الورود في وسط الطاولة، توضيح وحيد من الإنسان يبقى مُبهَمًا لجيميني، إذ يغمض عليه المطلوب إن كان وضع المزهرية في موضع محدد من الطاولة أم بالنسبة إلى باقي الأجسام الموجودة، لكن بعد توضيح بسيط، يبلي الروبوت بلاءً حسنًا في الاختبار
تعود جذور فكرة راسل إلى الماضي، حين درس الذكاء الاصطناعي في جامعة لندن في السبعينيات، وطور خوارزمية للعب الشطرنج. ثم انتقل إلى سان فرانسيسكو وبدأ وضع أطروحته حول صنع القرارات العقلانية، واستنتج بعدها أن ذلك مستحيل، فالبشر ليسوا عقلانيين أصلًا ولا يمكن تقدير قراراتهم حسابيًّا، فلا يمكننا حساب أي الأفعال في أي وقت سيؤدي الى أفضل نتيجة ممكنة من بين ترليونات الاحتمالات، وعليه لا يستطيع الذكاء الاصطناعي تحقيق ذلك.
افترض راسل أن آليتنا في صنع القرار هرمية، فنقترب من العقلانية بحثًا عن أهداف مبهمة طويلة الأمد، بواسطة أهداف متوسطة الأمد، وفي نفس الوقت نعطي كامل اهتمامنا للظروف اللحظية، ورجح راسل أن على الروبوت أن يتصرف بالمثل، أو على الأقل أن يفهم كيف نفكر.
جاء إلهام راسل في وقت محوري لمجال الذكاء الاصطناعي، فقبله بأشهر صُدم العلماء من أداء شبكة عصبونية استخدمت مقاربة معروفة تسمى التعلم المُعزَّز، إذ تعلمت -من الصفر- لعبة الفيديو وابتكار حيل للفوز. في التعلم المعزز يحسن الذكاء الاصطناعي عامل المكافأة الخاصة به -كالحصول على تقييم عال في اللعبة- بتجريب سلوكيات مختلفة، ويرى أيها سيزيد عامل المكافأة، ويعززها لتحصل بنسبة أكبر في المستقبل.
سنة 1998 طور راسل مقاربةً عكسية. في (التعلم المعزز العكسي) لا يحاول النظام أن يُحسِّن عامل المكافأة، بل يحاول أن يتعرف على عامل المكافأة الذي يحاول الإنسان تحسينه، وفي حين تحاول أنظمة التعلم المعزز معرفة أفضل فعل لتحقيق هدف، تحاول أنظمة التعلم المعزز العكسي التعرف على الأهداف الكامنة وراء مجموعة الأفعال التي طُلبت منها.
تناقش راسل مع نيك بوستروم -صاحب فكرة مشابك الورق- حول التعلم المعزز العكسي، في اجتماع حول التحكم في الذكاء الاصطناعي، يقول راسل إن الأمرين اتحدا، إذ إن على الآلات أن تسعى لتحسين جودة التجربة الإنسانية إجمالًا، لكنها لا تستطيع فهم التفضيلات ذاتها، لذا فعليها إتقان التعلم المعزز العكسي لتحقق ذلك.
في التعليم المعزز العكسي تحاول الآلات أن تفهم ما هو عامل المكافأة الذي يسعى إليه الإنسان، ويساعدها الإنسان على هذا الفهم. بدأ راسل وفريقه يطورون نوعًا جديدًا من التعلم المعزز العكسي التعاوني، إذ يعمل الإنسان والروبوت معًا على فهم التفضيلات الحقيقية للبشر، عبر ألعاب مشتركة وسيناريوهات مجردة تمثل العالم الحقيقي ومواقف معرفية جزئية.
تعد لعبة (وقف التشغيل) المعروفة -أحد الألعاب التي طوروها- من أمثلة حيود الروبوت عن رغباتنا الحقيقية وذلك بتعطيلها زر وقف التشغيل الخاص بها. اقترح آلان تورنج في بحثه الرائد عن الذكاء الاصطناعي أنه يمكن إبقاء الروبوت في موضع تبعية دائمة وذلك بتعطيله في اللحظات الحاسمة، لكن يرى الباحثون أن هذا توجه مُبسَّط للغاية، فقد يستطيع الروبوت عالي الذكاء إلغاء خاصية وقف التشغيل لديه، أو أن يتجاهل أمر التوقف ليعظم عامل المكافأة لديه. كتب راسل: «تلك هي المشكلة الرئيسية في السيطرة على الأنظمة الذكية، إذ قد تمنعنا من تعطيلها، سنكون حينها في مشكلة حقيقية، لكن إذا تغلبنا على هذه المشكلة سنحقق التحكم».
قد يكون عدم التيقن من رغبتنا هو مفتاح الحل. يظهر ذلك في نموذج لعبة تشبه لعبة وقف التشغيل، ويتضمن النموذج الروبوت (روبي) والإنسانة (هارييت)، يحاول روبي أن يتصرف نيابةً عن هارييت في حجز غرفة فندق جميلة لكنها مكلفة، ويكمن عدم اليقين في أن روبي لا يعرف ما الذي تفضله هارييت.
يظن روبي أن الغرفة الفاخرة ستعجبها لكنه غير متيقن، يستطيع روبي اتخاذ قرار حجز الغرفة، أو عدم اتخاذ أي قرار، الخيار الثالث هو سؤال هاريت إن كانت تريده أن يتصرف أم تفضل أن يطفئ نفسه (أي: تنحية روبي من اتخاذ القرار)، لكنها إذا سمحت له بأن يتصرف سيحصل على نقاط أكثر، لذا يقرر روبي أن يستشيرها ويدع القرار لها.
أثبتت التجربة أن عدم تيقن روبي من رغبة هارييت ستجعله يفضل أن يترك لها القرار، كتب راسل: «يتضح أن عدم اليقين هو عنصر أساسي لتأمين القدرة على وقف تشغيل الآلة، وإنْ كانت أذكى منا».
طُورت تلك الحالات وسيناريوهات المعرفة الجزئية بوصفها ألعابًا مجردة، لكن سكوت نيكوم في مختبره في جامعة تكساس أوستن عمل على خوارزميات تعلم التفضيلات على روبوتات حقيقية، فعندما يشاهد الروبوت جيمني ذو الذراعين إنسانًا يضع الشوكة عن يسار الطبق عند تنسيق الطاولة، فلن يكون متيقنًا في البداية إن كان ذلك يعني وضع الشوكة دائمًا عن يسار الطبق أم في مكان محدد من الطاولة، لكن خوارزمية جديدة مكنت جيمني أن يتعلم النمط من توضيح بسيط لتنسيق الطاولة.
يهدف نيكوم إلى تمكين أنظمة الذكاء الاصطناعي من تقدير عدم يقينها حول التفضيلات البشرية كميًّا، ما يمكّنها من التفاعل عندما تعرف ما يكفي للتصرف بأمان، يقول نيكوم: »نحن نفكر بمنطقية حول إمكانية توزيع الأهداف في عقل الشخص بطريقة ما، ونفكر أيضًا في خطورة هذا التوزيع«.
توصل نيكوم وفريقه إلى خوارزمية فعالة تتيح للروبوتات تعلم تأدية المهام أفضل بكثير من التوضيحات البشرية، قد يكون تعلم مركبة القيادة مناورات القيادة ببساطة من مشاهدة البشر يقودون مُكلِّفًا حسابيًّا، لكن نيكوم وفريقه وجدوا أنه يمكن تحسين التعلم وتسريعه بتقديم عروض للروبوت مُصنَّفة بأنها الأفضل وفق الإنسان. يقول نيكوم: «يستطيع الروبوت النظر إلى التصنيف وأن يقول: هذا هو التصنيف، فما تفسير هذا التصنيف؟ وماذا يحدث في العروض المصنفة بأنها أفضل؟ وما أثر انخفاض التصنيف؟».
تُسمى النسخة الأحدث من هذه الخوارزمية (bayesian T-REX)، وهي تتعرف على الأنماط في التجارب المصنفة وتكتشف عامل المكافأة المُحتمل أن يحاول البشر تحسينه، وتحسب الاحتمالية النسبية بين عوامل المكافأة، وبهذا تستطيع الروبوتات الاستدلال بكفاءة على القواعد الأكثر احتمالًا للتقييم، أو أن تعرف هدف ألعاب الفيديو، وإنْ لم تشاهد عرضًا مثاليًّا.
خياراتنا غير المثالية
يقول (يوشا بينجو) مدير مركز ميلا لأبحاث الذكاء الاصطناعي في مونتريال: «بدأت أفكار راسل تدخل إلى أوساط مجتمع الذكاء الاصطناعي». يمكن تحقيق منهج راسل الهادف إلى تقليل عدم اليقين في أنظمة الذكاء الاصطناعي بخصوص التفضيلات البشرية بواسطة التعلم العميق، وهي طريقة مبتكرة أنتجت ثورةً في مجال الذكاء الاصطناعي، إذ تنتج الأنظمة البيانات من طريق شبكات عصبونية صناعية لإيجاد الأنماط، ويقول: «بالطبع نحتاج إلى المزيد من العمل والبحث لجعل هذا واقعًا».
يرى راسل تحديين كبيرين: الأول هو أن تصرفاتنا بعيدة كثيرًا عن العقلانية، ما يُصعب توقع رغباتنا الحقيقية الكامنة. فعلى أنظمة الذكاء الاصطناعي أن تفهم هرمية الأهداف طويلة الأمد ومتوسطة الأمد وقصيرة الأمد، وإذا كانت الروبوتات ستساعدنا على تجنب الأخطاء الكبرى، فإن عليها معرفة أساليب تتجاوز شبكة اللاوعي الغامض، والمعتقدات والرغبات غير الواضحة لدى البشر.
التحدي الثاني هو أنه على مدار حياة الإنسان تتغير تفضيلاته وأفكاره، بل إنها تتغير فجأة حسب الموقف أو الحالة المزاجية، ما سيصعب على الروبوتات التصرف. وإضافةً إلى ذلك، لا ترقى أفعالنا إلى المثالية، فقد يتبنى الإنسان أفكارًا متناقضة في ذات الوقت، فأيها يختار الروبوت؟
لتجنب الانجراف إلى أسوأ طباعنا (أو أسوأ: تعزيز تلك الطباع وتسهيل إرضاءها كما فعلت خوارزمية يوتيوب) يتعلم الروبوت وجود تفضيلات إضافية، وهي المُتعلقة بنوعية التغير في التفضيلات، التي قد تكون مقبولة أو غير مقبولة، وكيف نشعر حول تغير المشاعر، وهو أمر من الصعب أن يستوعبه الروبوت عادةً.
وكما ينبغي للروبوتات أن تفعل، نحاول أيضا أن نعرف تفضيلاتنا، ما هي وكيف نريدها أن تكون وكيف نتعامل مع غموضها وتناقضها. ومثل أفضل أنظمة الذكاء الاصطناعي، نعاني -على الأقل بعضنا- في فهم معادلة الخير، أو ما سماه أفلاطون الغرض من المعرفة. وقد تبقى أنظمة الذكاء الاصطناعي -مثلنا- عالقةً أبدًا بين الأسئلة، والحيرة في وضع وقف التشغيل، لأنها غير متيقنة مما يجب فعله، ما يجعلها عاجزةً عن المساعدة.
يقول كريستيانو: «لا اتوقع أننا سنملك قريبًا فهمًا عميقًا لما هو خير، ولا إجابات مثالية عن أي من الأسئلة التي نواجهها، لكني آمل أن أنظمة الذكاء الاصطناعي التي نبنيها قد تجيبنا بنفس جودة إجابات الإنسان، وأن تدخل في عمليات مستمرة لتطوير تلك الإجابات التي يجيدها بعضنا، على الأقل أحيانًا».
ولكن يوجد تحد ثالث كبير لم يذكره راسل في قائمته الصغيرة: ماذا عن تفضيلات الأشرار؟ ما الذي يمنع الروبوت من العمل لإرضاء مالكه الشرير ورغباته الشنيعة؟ تميل أنظمة الذكاء الاصطناعي دائمًا إلى إيجاد طرق لتجاوز المحظورات، فمنعها من ارتكاب الجرائم ببساطة لن يكون ناجحًا غالبًا.