A display shows a vehicle and person recognition system for law enforcement  SAUL LOEB/AFP/Getty Images

نهج احترازي في التعامل مع الذكاء الاصطناعي

فلورنسا ــ من منظور صانعي السياسات في أي مكان، تتلخص أفضل طريقة لاتخاذ القرارات في تأسيسها على الأدلة، حتى وإن كانت البيانات المتاحة منقوصة. ولكن كيف يتصرف القادة عندما تكون الحقائق نادرة أو منعدمة؟ هذا هو المأزق الذي يواجه أولئك الذين يتعين عليهم أن يتعاملوا مع التداعيات المترتبة على "الخوارزميات التنبؤية المتقدمة" ــ أحجار البناء الثنائية للتعلم الآلي والذكاء الاصطناعي.

في الأوساط الأكاديمية، سنجد أن العلماء الباحثين في مجال الذكاء الاصطناعي إما "فردانيون" أو "حاضريون". يزعم الفردانيون" في عموم الأمر أنه في حين تشكل تكنولوجيات الذكاء الاصطناعي تهديدا وجوديا للبشرية، فإن الفوائد تفوق التكاليف. ولكن برغم أن هذه المجموعة تضم العديد من النجوم البارزين في مجال التكنولوجيا وتجتذب قدرا كبيرا من التمويل، فإن ناتجها الأكاديمي كان فاشلا حتى الآن في إثبات حساباتها بشكل مقنع.

على الجانب الآخر، يميل الحاضريون إلى التركيز على العدالة والمساءلة والشفافية في التعامل مع التكنولوجيات الجديدة. فهم مهتمون على سبيل المثال بدراسة الكيفية التي ستؤثر بها الأتمتة على سوق العمل. ولكن هنا أيضا كانت الأعمال البحثية غير مقنعة. على سبيل المثال، عقدت مؤخرا مجلة تكنولوجي ريفيو التي يصدرها معهد ماساتشوستس للتكنولوجيا مقارنة بين 19 دراسة رئيسية بحثت في خسائر الوظائف المتوقعة، ووجدت أن التوقعات لعدد الوظائف "المدمرة" على مستوى العالَم تتراوح بين 1.8 مليون إلى ملياري وظيفة.

ببساطة، لا توجد "حقيقة متينة" ترجح كفة أي من جانبي المناقشة. فعندما تتراوح التوقعات بشأن تأثير الذكاء الاصطناعي من اضطرابات سوق العمل البسيطة إلى انقراض النوع البشري، يصبح من الواضح أن العالَم يحتاج إلى إطار جديد لتحليل وإدارة الانقطاع التكنولوجي المقبل.

من المؤكد أن البيانات المنقوصة تُعَد مشكلة شائعة تواجه الباحثين في مجال التكنولوجيا. وحتى في ظل ظروف "طبيعية"، تشبه دراسة التكنولوجيات الناشئة حل لغز الصورة المقطعة في الظلام بالاستعانة بمصباح خافت الإضاءة. لا يشكك أحد في افتراضات النظريات الراسخة، ومن الواضح أن ضمان التوصل إلى نتائج مفيدة مسألة تتعلق بالقياس الكمي لاحتمالات وقوع أحداث معاكسة وبالتالي إدارة المخاطر المرتبطة بهذه الأحداث.

ولكن في كثير من الأحيان، ينشأ لغز علمي في مرحلة "ما بعد الطبيعي"، وهو ما حدده لأول مرة في عام 1993 الفيلسوفان سيلفيو فوينتوفيتش وجيروم رافيتز بوصفه مشكلة "حيث الحقائق غير مؤكدة، والقيم في تنازع، والمخاطر عالية، والقرارات ملحة". في ضوء مثل هذه التحديات ــ والذكاء الاصطناعي أحدها ــ لا تملك السياسة ترف انتظار العلم إلى أن يلحق بها.

Subscribe now

Exclusive explainers, thematic deep dives, interviews with world leaders, and our Year Ahead magazine. Choose an On Point experience that’s right for you.

Learn More

في الوقت الحالي، تتخذ أغلب قرارات صنع السياسات في الشمال العالمي، وهو ما يقلل من التركيز على مخاوف الدول الأقل تقدما ويجعل من الصعب التحكم في التكنولوجيات ذات الاستخدام المزدوج. والأسوأ من ذلك هو أن صناع السياسات يفشلون غالبا في النظر بالقدر الكافي في الأثر البيئي المحتمل، ويركزون بشكل كامل تقريبا على التأثيرات المتعلقة بتطور البشر التي تخلفها الأتمتة والروبوتات والآلات.

وحتى في غياب بيانات جديرة بالثقة، يتعين على متخذي القرار أن يمضوا قدما في إدارة وحوكمة الذكاء الاصطناعي. وبينما ينتظر العالَم اليقين العلمي (الذي قد لا يصل أبدا)، لدينا حل قائم ربما يرشدنا عبر المجهول: "مبدأ التحوط". اعتُمِد مبدأ التحوط عالميا في عام 1992 كجزء من اتفاقية ريو للأمم المتحدة بشأن التنمية المستدامة، وفي وقت لاحق أدمج في واحدة من المعاهدات التأسيسية للاتحاد الأوروبي، وينص مبدأ التحوط على أن الافتقار إلى اليقين لا يجب أن يكون مبررا للفشل في حماية صحة البشر أو البيئة. ويبدو هذا كطريقة مناسبة لمعالجة عدم اليقين في مستقبل يعتمد على التكنولوجيا.

لم يسلم مبدأ التحوط من المنتقدين. ولكن على الرغم من الجدال الدائر حول جدارته لسنوات، فنحن في احتياج إلى قبول حقيقة مفادها أن الافتقار إلى الدليل على الضرر يختلف عن الدليل على عدم وجود ضرر. وقد جرى تطبيق هذه الفكرة البسيطة على عدد لا حصر له من قضايا التنمية البشرية ــ من الصحة العامة إلى الوفيات بين الأطفال الرضع. وهناك ثلاثة أسباب وجيهة لوجوب أن يكون الذكاء الاصطناعي هو التالي.

بادئ ذي بدء، يساعد تطبيق مبدأ التحوط على سياق الذكاء الاصطناعي في إعادة التوازن إلى مناقشة السياسة العالمية، مما يمنح الأصوات الأكثر ضعفا قدرا أكبر من التأثير في المناقشات التي تحتكرها حاليا مصالح الشركات. وبهذا تصبح عملية اتخاذ القرار أيضا أكثر شمولية وتداولا، فتنتج حلولا تعكس الاحتياجات المجتمعة بشكل أوثق. والآن يتولى بالفعل معهد مهندسي الكهرباء والإلكترونيات وجمعية المستقبل في كلية كينيدي في جامعة هارفارد قيادة العمل بهذه الروح التشاركية. وينبغي للمنظمات المهنية والمراكز البحثية أن تحذو حذوهما.

علاوة على ذلك، من خلال تطبيق مبدأ التحوط، يصبح بوسع الهيئات الحكومية أن تحول عبء المسؤولية إلى مبدعي الخوارزميات. ومن الممكن أن يعمل شرط تفسير عملية اتخاذ القرار الخوارزمي على تغيير الحوافز، ومنع الغموض المتزايد، وأن يساعد في جعل عملية اتخاذ قرارات العمل أكثر شفافية، فضلا عن السماح للقطاع العام باللحاق بالقطاع الخاص في التطور التكنولوجي. ومن خلال إرغام شركات التكنولوجيا والحكومات على تحديد خيارات متعددة، يعمل مبدأ التحوط على دفع القضايا المهملة، مثل الأثر البيئي، إلى الصدارة.

نادرا ما يكون العلم في وضع يسمح له بإدارة أي إبداع قبل فترة طويلة من إتاحة نتائج هذا الإبداع للدراسة. ولكن في سياق الخوارزميات، والتعلم الآلي، والذكاء الاصطناعي، لا تملك البشرية ترف الانتظار. ولا يكمن جمال مبدأ التحوط في ترسخه في القانون العام الدولي فحسب، بل وأيضا في سجله الناجح كإطار لإدارة الإبداع في سياقات علمية لا حصر لها. وينبغي لنا أن نعتنق هذا المبدأ قبل أن تتوزع فوائد التقدم على نحو غير متساو، أو قبل أن تقع أضرار لا يمكن إصلاحها.

ترجمة: مايسة كامل          Translated by: Maysa Kamel

http://prosyn.org/xEAUtFB/ar;

Handpicked to read next

Cookies and Privacy

We use cookies to improve your experience on our website. To find out more, read our updated cookie policy and privacy policy.