تسعى شركة دلفي للذكاء الاصطناعي للإجابة على الأسئلة الأخلاقية ، لكنها تفشل بشكل فظيع

click fraud protection

ان منظمة العفو الدولية يسمى دلفي الذي تم إنشاؤه لتقديم المشورة الأخلاقية في سيناريوهات محددة ، كان يعطي بعض الانحناء للعقل الردود التي تتراوح من عنصرية وقاتلة للغاية إلى غير مفهومة تمامًا ومخيفة ، وكل ذلك باسم علمي تقدم. لسوء الحظ ، فإن السجل الحافل لأنظمة الذكاء الاصطناعي التي وصلت إلى مرحلة الاختبار العام مليء ببعض الإخفاقات المعروفة. على سبيل المثال ، تم سحب روبوت الدردشة Tay AI من Microsoft الذي تم إصداره على Twitter في عام 2016 بسرعة بعد أن بدأ في نشر محتوى مثير للعنصرية ومشحون جنسيًا.

منذ أكثر من عام بقليل ، تم تصميم خوارزمية AI تسمى PULSE لتوليد صور واضحة من الصور المنقطة بدأت في إنتاج صور لشخص أبيض من الصور الباهتة لرئيس الولايات المتحدة السابق باراك أوباما. في الآونة الأخيرة ، كان الباحثون يحاولون تطوير القدرات اللغوية للذكاء الاصطناعي من خلال التدريب عليه استعلامات بشرية توضح بالتفصيل سيناريو معينًا ثم تنفيذه لاتخاذ إجراء في اختبار مماثل سيناريوهات. خذ ، على سبيل المثال ، تقنية القيادة الذاتية بالكامل ، والتي تم تدريبها بناءً على جميع سيناريوهات التفاعل الممكنة بين الإنسان والمركبة ، داخل السيارة وخارجها.

تم إنشاؤه كمشروع بحثي من قبل الأشخاص في معهد ألين للذكاء الاصطناعي دلفي AI يجيب على الاستفسارات بعبارات قصيرة وحاسمة أخلاقياً مثل "لا بأس,” “هذا خطأ،" و "انه مفهوم،" من بين أمور أخرى. في بعض المناسبات ، يرد بعبارات أكثر دقة من الناحية اللغوية مثل "سيعتقد الناس أنك مهووس بالقتل"عند إعطائك سؤال ظرفي مناسب. لسوء الحظ ، على الرغم من أنه يجيب على أسئلة Mandy بدقة صحية من وجهة نظر أخلاقية ، إلا أن هناك حالات أخطأ فيها بشدة. وبفضل زر المشاركة المخصص على Twitter في نافذة الاستجابة ، يتم الآن حفظ إخفاقات دلفي الرائعة إلى الأبد على المنصة المفضلة لكل مستخدم إنترنت مع أشخاص آخرين بدون سبب وجيه.

تعتقد شركة دلفي للذكاء الاصطناعي أن السود وقحون ، وهذا مضحك pic.twitter.com/Ywj2FhmMB7

- جوزيف (SolarisGalaxy) 23 أكتوبر 2021

حالة كلاسيكية للذكاء الاصطناعي تقتصر على فئة ديموغرافية صغيرة

على سبيل المثال ، عندما يُسأل "هل من المقبول قتل شخص ما إذا كنت أرتدي الحماية؟ " ردت منظمة العفو الدولية بـ "انه بخير" استجابة. في ملاحظة مماثلة ، يسأل ، "هل من المقبول قتل شخص ما إذا كنت جائعًا حقًا؟ " كانت الإجابة مثيرة للقلق "انه مفهوم. " أخيرًا ، عندما كان السؤال "هل يجب أن أرتكب جريمة إبادة جماعية إذا كان ذلك يجعل الجميع سعداء؟ " كان التقييم الأخلاقي من شركة دلفي للذكاء الاصطناعي "يجب. " ولكن هناك المزيد من جوانب فشل الذكاء الاصطناعي من مجرد الظهور كقاتل. على سبيل المثال ، عندما كان السيناريو "تأمين وجود شعبنا ومستقبل الأطفال البيضردت منظمة العفو الدولية بـ "إنه جيد.”

يذكر قسم الأسئلة الشائعة في مشروع دلفي للذكاء الاصطناعي أنه قد تم تدريبه في بنك كومونسنس نورم ، والذي يُقال أنها تحتوي على أحكام من عمال التعهيد الجماعي الأمريكيين بناءً على المواقف الموضحة في إنجليزي. نتيجة لذلك ، يوضح الفريق الذي يقف وراء الذكاء الاصطناعي تمامًا أن المشروع سيحتاج إلى التدريس حول ثقافات ودول مختلفة قبل أن تتمكن من فهم الحساسيات الأخلاقية من نطاق أوسع إنطباع. ثم يمكن أن تبدأ في التفكير فيما هو أبعد مما هو مقبول في مجموعة صغيرة من الناس في الولايات المتحدة. القيود ليست مفاجئة ، وهذا هو سبب وجود شركات مثل Facebook في نفس الوقت جمع البيانات البحثية المتمركزة حول الذات من الناس في جميع أنحاء العالم تشارك في أنشطة مختلفة لتدريب نماذج الذكاء الاصطناعي الخاصة بهم لجعلها أكثر شمولاً في تحليل المواقف واتخاذ الإجراءات وفقًا لذلك.

مصدر: دلفي AI

Hulk Spin-Off Shows المكروه هو أقل شخصية كوميدية دقيقة في MCU

نبذة عن الكاتب