خبيرة في الذكاء الاصطناعي تشارك مخاوفها (وآمالها) بشأن مستقبل التكنولوجيا

click fraud protection

أثبت الذكاء الاصطناعي أنه سيغير قواعد اللعبة في العديد من الصناعات ، ولكن كيف يمكننا تنظيمه؟ تشارك الدكتورة ليزا بالمر بعض الأفكار.

صعود الذكاء الاصطناعي تعني شيئًا مختلفًا لكل صناعة. في خدمة العملاء ، قد تساعد روبوتات المحادثة التي يقودها الذكاء الاصطناعي الموظفين من خلال الاستجابة للمخاوف والاهتمامات المتعلقة بمنتج الشركة. في صناعة السيارات ، ابتكارات مثل تسلا الطيار الآلي والقيادة الذاتية الكاملة (FSD) ، جنبًا إلى جنب مع أنظمة مساعدة القيادة المتقدمة (ADAS) من شركات صناعة السيارات الأخرى ، نقدم وعودًا جريئة لتغيير وسائل النقل. إن فكرة قضاء وقت أقل في مهمة وزيادة فرص المرء في القيام بهذه المهمة بكفاءة تشكل حجة قوية لهذه التكنولوجيا.

ومع ذلك ، هناك العديد من المخاطر التي يجب مراعاتها. عند استخدامه بشكل غير صحيح ، يمكن أن يسبب الذكاء الاصطناعي ضررًا للمجتمع ، أحيانًا بطرق هائلة. من التحيزات المدمجة إلى الحوادث التي تسببها أنظمة مساعدة السائق الوليدة ، يمكن أن يحدث الكثير من الأخطاء. نظرًا لأن العالم يمر تدريجياً بتحول رقمي ، يجب على أصحاب المصلحة تنفيذ قوانين معينة واللوائح التي ستوجه الدراسة الفعالة ، والتطوير ، والنشر لهذه الأنظمة التقنيات.

شاشة تشدق تحدث مع ليزا بالمر، مدير تنفيذي سابق في مجال التكنولوجيا الكبيرة ومرشح لنيل درجة الدكتوراه في الذكاء الاصطناعي ، بتاريخ كيف يمكن للذكاء الاصطناعي تقديم تجارب سلبية، والعلاجات التي يجب مراعاتها ، والعقوبات المحتملة لمن ينتهكون سياسة الذكاء الاصطناعي ، وتوقعاتها بشأن الذكاء الاصطناعي في الولايات المتحدة وخارجها.

ليزا بالمر حول آفاق الذكاء الاصطناعي

بينما تهيمن مزايا الذكاء الاصطناعي على وسائل الإعلام ، فإن مقالتك باللغة أوكلاهومان يشاركنا بعض الأفكار البارزة حول كيف يمكن أن يتسبب الذكاء الاصطناعي غير المنظم في إلحاق أضرار جسيمة بالمجتمع. لذا ، بشكل أساسي ، هل ترغب في توضيح مخاوفك - ما الذي يجب أن يشعر به الجمهور بالضبط عندما يتعلق الأمر بالذكاء الاصطناعي غير المنظم؟

الدكتورة ليزا بالمر: من واقع خبرتي في العمل مع الشركات التي تركز على التكنولوجيا من الدرجة الأولى ، فقد شاهدت بنفسي أن الذكاء الاصطناعي غير مصمم بشكل متعمد ليكون ضارًا. بدلاً من ذلك ، الأشياء المصممة لغرض حسن النية ينتهي بها الأمر إلى إحداث ضرر عن غير قصد. هناك العديد من الحالات التي تتراوح من كيفية تحديد البنوك للجدارة الائتمانية للفرد إلى كيفية تعيين الشركات للموظفين. على الرغم من أن الذكاء الاصطناعي يهدف إلى تحسين الإنتاجية والنتائج ، إلا أن هذا الابتكار حسن النية يمكن أن يتسبب في ضرر غير مقصود. ضع في اعتبارك فكرة استخدام الخوارزميات للشرطة التنبؤية لخفض مستويات الجريمة. على الرغم من أن هذا أمر ذكي ، إلا أن الشرطة التنبؤية قد تؤدي إلى تصنيف النظام للأفراد من مجموعات معينة على أنهم مجرمون محتملون حتى لو لم يكن لديهم سجل إجرامي. في الأساس ، يمكن لهذه الأنظمة أن تدوس على حقوق الناس الدستورية.

بالنظر إلى كيفية تكليف البشر ببناء خوارزميات الذكاء الاصطناعي ، قد يغرس الأفراد عن قصد أو عن غير قصد درجة معينة من التحيز الذي سيجعل النظام ينتج نتائج معيبة. ما هي الخطوات التي يمكن اتخاذها لمنع حدوث ذلك؟

الدكتورة ليزا بالمر: أعتقد أنه من المهم بالنسبة لنا أن نفهم أن التحيز يمكن إدارته فقط وليس القضاء عليه. هناك عدة أنواع من التحيز - تحيز البيانات ، والتحيز الحسابي ، والتحيز البشري ، والتي أعتقد أنها الأصعب. يحدث تحيز البيانات عندما نستخدم البيانات لتدريب نظام ذكاء اصطناعي لا يمثل العالم الحقيقي ، أو عندما يحدث ذلك ، فإنه يؤدي إلى نتيجة غير عادلة. النظر في حالة أمازون أداة توظيف مدعومة بالذكاء الاصطناعي أظهرت تحيزًا تجاه النساء. أعتقد أنه بالنسبة لنا لتقليل التحيز إلى الحد الأدنى ، يجب علينا دراسة النتائج من الأدوات التي يقودها الذكاء الاصطناعي وتعديل الخوارزميات لتحقيق نتائج أكثر توازناً. هناك طريقة أخرى لمعالجة التحيز وهي التأكد من تنوع الفرق المكلفة بتصميم النماذج. بمجرد تغطية ذلك ، تزداد فرص التوصل إلى قرارات عادلة.

في عام 2016 ، أطلقت Microsoft روبوت محادثة على Twitter يسمى Tay والذي تم إنشاؤه بواسطة مزيج من معالجة اللغة الطبيعية والتعلم الآلي وثقافة الوسائط الاجتماعية. دربت Microsoft تاي باستخدام مجموعات البيانات المستخرجة من بيانات عامة مجهولة المصدر. بعد ساعات قليلة من إطلاق الروبوت ، بدأ في نشر تغريدات عنصرية ومسيئة. رداً على ذلك ، أبلغ مستخدمو Twitter بشكل كبير عن الحساب ، مما أجبر Microsoft على تعليق الحساب. ما الذي تعتقد أنه كان بإمكان Microsoft فعله لتجنب هذا الحادث؟

الدكتورة ليزا بالمر: حادثة تاي يمكن مقارنتها بإطلاق سراح مراهق في بيئة فاسدة أخلاقياً دون إشراف شخص بالغ. أشياء سيئة ستحدث. حدث مماثل وقع في الخامس من أغسطس من هذا العام. أصدرت Google إصدار Blenderbot 3.0 ، وبعد فترة وجيزة ، ورد أنها قدمت ملاحظات غير لائقة وكاذبة. والسبب هو أن كلا الروبوتين واجهوا بيانات فاسدة ، قدمها البشر على الإنترنت ، في عملية التعلم الآلي الخاصة بهم. لمعالجة الموقف ، يجب إصلاح المعلومات المستخدمة لتدريب هذه النماذج من خلال تقنيات مثل تبادل الجنس وإدخال بيانات تركيبية نظيفة. [تبادل الجنس هو الأسلوب الذي يتم من خلاله تحسين البيانات المستخدمة لتعليم النظام من خلال تضمين جملة بديلة لكل جملة جنسانية. من خلال القيام بذلك ، يتم استبدال الكلمات والعبارات الجنسانية بأخرى من الجنس الآخر.] بالإضافة إلى ذلك ، يجب فحص النماذج بحثًا عن أشياء مثل التوجه الجنسي والجنس والهوية والعرق والدين. مرة أخرى ، يجب أن تكون الفرق التي تقوم بهذه المهمة متنوعة تمامًا.

يعتقد الكثير من الناس أن ظهور الذكاء الاصطناعي يشير إلى أن ملايين الموظفين سيفقدون وظائفهم. ما هو رأيك الصريح في هذا الأمر ، وإذا كنت تتفق مع الافتراض المذكور أعلاه ، فكيف يمكن تكييف القوى العاملة الحالية والمستقبلية لتزدهر في عالم يحركه الذكاء الاصطناعي؟

الدكتورة ليزا بالمر: كما تعلم ، تختلف الآراء بشكل كبير حول عدد الوظائف التي ستفقد أو ستنشأ نتيجة للذكاء الاصطناعي. نما الذكاء الاصطناعي بسرعة ، وانتشر الأتمتة للأدوار في القطاعات بما في ذلك البيع بالتجزئة ، التصنيع والسيارات تدعم النظرية القائلة بأن عددًا كبيرًا من المجتمع سيصبح عاطل عن العمل. ومع ذلك ، لن يفقد الأشخاص وظائفهم بسرعة ، ولكن سيتم استبدال المهام الفردية داخل وظائفهم بالذكاء الاصطناعي. هذا يتسبب بالفعل في إعادة تصميم الوظائف بالكامل. مع حدوث ذلك ، حان الوقت لأن نبدأ في رؤية الذكاء الاصطناعي كأداة مفيدة لتحسين نتائج العمل وليس بديلاً كاملاً. لكي يظل الموظفون ملائمين في السوق ، يحتاجون إلى صقل مهاراتهم والالتزام بالتعلم المستمر. فكرة أننا ننهي تعليمنا ثم نبدأ العمل يجب أن تختفي. يجب أن ندمج اكتساب المعرفة في كل ما نقوم به وأن نكافئ الراغبين في توسيع أفقهم العقلي في العمل. يجب أن نشجع اكتشاف وفهم مفاهيم وطرق جديدة للعمل من أجل القوى العاملة الحالية والمستقبلية.

بطبيعة الحال ، عندما يرتكب شخص ما جريمة ، فمن المتوقع أن يتم اتهامه بهذه الجريمة. ومع ذلك ، مع الذكاء الاصطناعي ، فإن فكرة المسؤولية القانونية غامضة. إذا كان النظام الذي يعمل بالذكاء الاصطناعي لا يعمل كما هو مبرمج ، فمن يجب أن يكون مسؤولاً؟ المبرمج أم الشركة أم كلاهما؟

الدكتورة ليزا بالمر: هذا المجال يتطور ويضر باستمرار مثل ما ذكرته للتو. يجب تحميل شخص ما المسؤولية عن الأخطاء الضارة ، والتي لا تحدث اليوم إلى حد كبير. لتحديد من يتحمل هذه المسؤولية ، نحتاج إلى أن نكون واقعيين. يجب أن تكون الشركة التي تحقق ربحًا من أحد منتجات الذكاء الاصطناعي التي طوروها واختبروها وروجوا لها ولا تحقق النتيجة المتوقعة ، مسؤولة عن النتائج غير العادلة. هذا يعني أنه إذا تسبب نظام التعرف على الوجه في ضرر من خلال تحديد شخص ما بشكل خاطئ ، فعندئذٍ يكون مسؤولاً قانونياً.

هل تعتقد بصدق أن فوائد نشر تقنيات الذكاء الاصطناعي تفوق المخاطر المصاحبة لاستخدامها؟

الدكتورة ليزا بالمر: بكلمة واحدة ، نعم. أعتقد أن البشر والآلات سيحلون بعضًا من أكبر مشاكل العالم. أرى علاجًا للسرطان يتم العثور عليه باستخدام الذكاء الاصطناعي بالشراكة مع الإبداع البشري. وإيجاد حلول لمشاكلنا البيئية العالمية هو احتمال آخر مثير. لتحقيق هذه الأشياء ، يجب أن يكون الذكاء الاصطناعي قادرًا تقنيًا لذا يجب أن يستمر تطوره. يحتاج المجتمع إلى تبني التحول في كيفية إنجاز الأشياء بالكامل. وأخيرًا ، نحتاج إلى تشريع يوجه استخدام الذكاء الاصطناعي لتقليل فرص استخدامه لأغراض ضارة. بمجرد استيفاء هذه الشروط الثلاثة ، يمكننا إذن إطلاق إمكانات الذكاء الاصطناعي بأمان.

ما هي العقوبات المفروضة على عدم الامتثال لسياسات الذكاء الاصطناعي؟

الدكتورة ليزا بالمر: أود أن أرى نظامًا توجد فيه المساواة المطلوبة في نتائج أي أنظمة أو عمليات تستخدم الذكاء الاصطناعي. ستتم معاقبة المنظمات التي تبيع أو تستخدم الذكاء الاصطناعي والتي تفشل في تحقيق نتائج عادلة. على سبيل المثال ، إذا أدت عمليات التحقق من الخلفية قبل التوظيف إلى استبعاد أي مجموعة من الأشخاص بشكل غير عادل من أهلية التوظيف ، فعندئذٍ الشركة استخدام هذا النظام سيتم تغريمه وإيقافه عن استخدام نظام الذكاء الاصطناعي حتى يتمكنوا من إثبات المساواة في أهلية التوظيف نتائج. بالنسبة للولايات المتحدة ، يتمثل الحل الأدنى السريع لمعالجة هذه الاستراتيجية التي تركز على النتائج في وضع سياسة الذكاء الاصطناعي داخل اختصاص لجنة التجارة الفيدرالية.

ما هي توقعاتك الصريحة لسياسة الذكاء الاصطناعي في الولايات المتحدة وخارجها؟

الدكتورة ليزا بالمر: من منظور أمريكي عملي ، يتم وضع معاييرنا لنا من قبل دول أخرى. تمامًا مثل ما حدث مع الشركات الأمريكية التي أجبرت على تصميم عملياتها حول جنرال الاتحاد الأوروبي قانون حماية البيانات (GDPR) ، نحن نواجه وضعًا مشابهًا لوضع الاتحاد الأوروبي. من المتوقع أن يصبح قانون AI Act قريبًا قانون. على الرغم من حالتنا المتأخرة ، فقد شجعت ما حدث حيث رأينا رئيسًا جمهوريًا يصدر أمرًا تنفيذيًا حول الذكاء الاصطناعي ، ثم قام مجلس تشريعي يسيطر عليه الديمقراطيون لاحقًا بتقنينه. ثم في وقت سابق من هذا العام ، تم إصدار مخطط قانون حقوق الذكاء الاصطناعي. أعتقد أن الولايات المتحدة قد أظهرت مبادرة ولكنها بحاجة إلى الاتصال بأولئك الذين سبقونا في تعزيز السياسة الوطنية للذكاء الاصطناعي. هذا أمر بالغ الأهمية لكل من الأمن القومي والقدرة التنافسية الوطنية. من خلال وضع معيار فيدرالي ومحاسبة المنظمات عن النتائج غير المتكافئة ، فإننا سنفعل ذلك بشكل تدريجي تحقيق نتائج إيجابية للجميع من خلال الذكاء الاصطناعي وإطلاق العنان لقدرته على حل بعض أكبر المشكلات في العالم مشاكل.

مصدر: أوكلاهومان