Tokyo humanoid Anadolu Agency/Getty Images

وعد الآلات الأخلاقية

ستورز، كونيتيكيت ــ ظَلَّت آفاق الذكاء الاصطناعي لفترة طويلة تشكل مصدرا لتساؤلات أخلاقية معقدة. ولكن التركيز كان في الأغلب الأحيان على الكيفية التي ينبغي لنا بها نحن مبدعو الذكاء الاصطناعي أن نستخدم الروبوتات المتقدمة. والعنصر المفقود في المناقشة هو الحاجة إلى وضع مجموعة من الأخلاقيات تحكم عمل الآلات ذاتها، فضلا عن تزويد الآلات بوسيلة لحل المعضلات الأخلاقية كلما نشأت. فآنئذ فقط يصبح بوسع الآلات الذكية أن تعمل بشكل مستقل، فتتخذ اختيارات أخلاقية وهي تؤدي مهامها، من دون تدخل بشري.

هناك العديد من الأنشطة التي نود لو نتمكن من تسليمها بشكل كامل لآلات تعمل بشكل مستقل. فالروبوتات قادرة على القيام بوظائف شديدة الخطورة أو غير سارة على الإطلاق. وبوسعها أن تسد الفجوات في سوق العمل. كما يمكنها أداء مهام شديدة التكرار أو التفصيل ــ وهو ما يتناسب بشكل أفضل مع الروبوتات مقارنة بالبشر.

ولكن لن يشعر أحد بالارتياح في ظل آلات تعمل بشكل مستقل في غياب أي إطار أخلاقي لتوجيهها. (قامت هوليود بوظيفة بارعة في تسليط الضوء على هذه المخاطر على مر السنين). ولهذا السبب، نحتاج إلى تدريب الروبوتات على تحديد وتقييم السمات الأخلاقية ذات الصِلة في أي موقف بعينه (على سبيل المثال، تلك التي تشير إلى فوائد محتملة أو أضرار قد تلحق بشخص ما). ويتعين علينا أن نغرس فيها واجب التصرف على النحو اللائق المناسب (لتعظيم الفوائد والحد من الأضرار).

To continue reading, please log in or enter your email address.

To access our archive, please log in or register now and read two articles from our archive every month for free. For unlimited access to our archive, as well as to the unrivaled analysis of PS On Point, subscribe now.

required

By proceeding, you agree to our Terms of Service and Privacy Policy, which describes the personal data we collect and how we use it.

Log in

http://prosyn.org/2X6fq78/ar;

Cookies and Privacy

We use cookies to improve your experience on our website. To find out more, read our updated cookie policy and privacy policy.