ผู้เชี่ยวชาญด้าน AI แบ่งปันความกลัว (และความหวัง) ของเธอต่ออนาคตของเทคโนโลยี

click fraud protection

ปัญญาประดิษฐ์กำลังพิสูจน์แล้วว่าเป็นผู้เปลี่ยนเกมในหลายอุตสาหกรรม แต่เราจะควบคุมมันได้อย่างไร ดร.ลิซ่า พาล์มเมอร์แบ่งปันแนวคิดบางอย่าง

การเพิ่มขึ้นของ ปัญญาประดิษฐ์ หมายถึงสิ่งที่แตกต่างสำหรับทุกอุตสาหกรรม ในการบริการลูกค้า แชทบอทที่นำโดย AI อาจช่วยเหลือพนักงานโดยตอบสนองต่อข้อกังวลและความสนใจเกี่ยวกับผลิตภัณฑ์ของบริษัท ในอุตสาหกรรมยานยนต์ นวัตกรรมอย่างเทสลา Autopilot และ Full Self-Driving (FSD) พร้อมด้วยระบบช่วยเหลือการขับขี่ขั้นสูง (ADAS) จากผู้ผลิตรถยนต์รายอื่น ให้สัญญาที่ชัดเจนในการเปลี่ยนแปลงการขนส่ง แนวคิดในการใช้เวลาน้อยลงกับงานและเพิ่มโอกาสในการทำงานที่มอบหมายนั้นอย่างมีประสิทธิภาพถือเป็นกรณีที่ดีสำหรับเทคโนโลยีนี้

อย่างไรก็ตาม มีความเสี่ยงหลายประการที่ต้องพิจารณา เมื่อใช้อย่างไม่เหมาะสม AI สามารถก่อให้เกิดอันตรายต่อสังคมได้ ตั้งแต่อคติในตัวไปจนถึงอุบัติเหตุที่เกิดจากระบบช่วยเหลือผู้ขับขี่ที่เพิ่งเกิดขึ้น อาจผิดพลาดได้มากมาย ในขณะที่โลกมีการเปลี่ยนแปลงทางดิจิทัลอย่างค่อยเป็นค่อยไป ผู้มีส่วนได้ส่วนเสียจะต้องบังคับใช้กฎหมายบางอย่าง และข้อบังคับที่จะเป็นแนวทางในการศึกษา พัฒนา และปรับใช้สิ่งเหล่านี้อย่างมีประสิทธิภาพ เทคโนโลยี

หน้าจอพูดจาโผงผาง พูดด้วย ลิซ่า ปาล์มเมอร์อดีตผู้บริหารเทคโนโลยีรายใหญ่และผู้สมัครระดับปริญญาเอกด้าน AI AI สามารถส่งมอบประสบการณ์เชิงลบได้อย่างไรการแก้ไขที่ต้องพิจารณา บทลงโทษที่เป็นไปได้สำหรับผู้ที่ดูหมิ่นนโยบาย AI และการคาดการณ์ของเธอเกี่ยวกับ AI ในสหรัฐอเมริกาและที่อื่น ๆ

Lisa Palmer เกี่ยวกับอนาคตของ AI

ในขณะที่ข้อดีของปัญญาประดิษฐ์ครอบงำสื่อ บทความของคุณใน โอกลาโฮมาน แบ่งปันข้อมูลเชิงลึกที่สำคัญบางประการเกี่ยวกับวิธีที่ AI ที่ไม่ได้รับการควบคุมสามารถสร้างความเสียหายที่มีความหมายต่อสังคมได้ โดยพื้นฐานแล้ว คุณต้องการแจกแจงรายละเอียดความกลัวของคุณหรือไม่ - ประชาชนควรกังวลอย่างไรเมื่อพูดถึง AI ที่ไม่ได้รับการควบคุม

ดร. ลิซ่า พาล์มเมอร์: จากประสบการณ์การทำงานกับบริษัทชั้นนำที่มุ่งเน้นด้านเทคโนโลยี ฉันได้เห็นโดยตรงว่า AI ไม่ได้ถูกออกแบบโดยจงใจให้เป็นอันตราย ในทางกลับกัน สิ่งที่ออกแบบมาเพื่อจุดประสงค์ที่ดีกลับสร้างอันตรายโดยไม่ได้ตั้งใจ มีหลายกรณีตั้งแต่วิธีที่ธนาคารกำหนดความน่าเชื่อถือทางเครดิตไปจนถึงวิธีที่บริษัทจ้างพนักงาน แม้ว่า AI จะมีไว้เพื่อปรับปรุงประสิทธิภาพและผลลัพธ์ แต่นวัตกรรมที่มีความหมายดีนี้อาจก่อให้เกิดอันตรายโดยไม่ตั้งใจได้ พิจารณาแนวคิดในการใช้อัลกอริทึมสำหรับตำรวจเชิงคาดการณ์เพื่อลดระดับอาชญากรรม แม้ว่าวิธีนี้จะชาญฉลาด แต่การตรวจรักษาแบบคาดการณ์ล่วงหน้าอาจส่งผลให้ระบบจำแนกบุคคลจากบางกลุ่มว่าน่าจะเป็นอาชญากร แม้ว่าพวกเขาจะไม่มีประวัติอาชญากรรมก็ตาม โดยพื้นฐานแล้วระบบเหล่านี้สามารถเหยียบย่ำสิทธิตามรัฐธรรมนูญของประชาชนได้

เมื่อเห็นว่ามนุษย์ได้รับมอบหมายให้สร้างอัลกอริทึม AI อย่างไร บุคคลเหล่านั้นอาจปลูกฝังอคติในระดับหนึ่งโดยที่รู้หรือไม่ตั้งใจ ซึ่งจะทำให้ระบบสร้างผลลัพธ์ที่มีข้อบกพร่อง ขั้นตอนใดที่สามารถดำเนินการเพื่อป้องกันไม่ให้สิ่งนี้เกิดขึ้น?

ดร. ลิซ่า ปาล์มเมอร์: ฉันคิดว่ามันสำคัญสำหรับเราที่จะต้องเข้าใจว่าอคติสามารถจัดการได้เท่านั้นและไม่สามารถกำจัดให้หมดไปได้ มีอคติหลายประเภท — อคติข้อมูล อคติอัลกอริทึม และอคติของมนุษย์ ซึ่งผมเชื่อว่าเป็นสิ่งที่ยากที่สุด ความลำเอียงของข้อมูลเกิดขึ้นเมื่อเราใช้ข้อมูลเพื่อฝึกระบบ AI ที่ไม่ได้เป็นตัวแทนของโลกแห่งความจริง หรือเมื่อเป็นเช่นนั้น ก็จะนำไปสู่ผลลัพธ์ที่ไม่ยุติธรรม พิจารณากรณีของ อเมซอน เครื่องมือสรรหาที่ขับเคลื่อนด้วย AI ซึ่งแสดงอคติต่อผู้หญิง ผมเชื่อว่าการที่เราจะลดอคติให้น้อยที่สุด เราต้องศึกษาผลลัพธ์จากเครื่องมือที่นำโดย AI และปรับอัลกอริทึมเพื่อให้ได้ผลลัพธ์ที่สมดุลมากขึ้น อีกวิธีหนึ่งในการจัดการกับอคติคือการทำให้แน่ใจว่าทีมที่ได้รับมอบหมายให้ออกแบบโมเดลนั้นมีความหลากหลาย เมื่อครอบคลุมแล้ว โอกาสในการได้รับการตัดสินใจที่เท่าเทียมกันก็เพิ่มขึ้น

ในปี 2559 Microsoft ได้เปิดตัวแชทบอทบน Twitter ชื่อ Tay ซึ่งการสร้างสรรค์นั้นขับเคลื่อนโดยการผสมผสานระหว่างการประมวลผลภาษาธรรมชาติ การเรียนรู้ของเครื่อง และวัฒนธรรมโซเชียลมีเดีย Microsoft ฝึกฝน Tay โดยใช้ชุดข้อมูลที่คัดมาจากข้อมูลสาธารณะที่ไม่ระบุตัวตน ไม่กี่ชั่วโมงหลังจากบอทถูกปล่อยออกมา มันก็เริ่มทวีตเหยียดเชื้อชาติและดูถูกเหยียดหยาม ในการตอบสนอง ผู้ใช้ Twitter รายงานบัญชีจำนวนมาก ทำให้ Microsoft ต้องระงับบัญชีดังกล่าว คุณคิดว่า Microsoft สามารถทำอะไรได้บ้างเพื่อหลีกเลี่ยงเหตุการณ์นั้น

ดร.ลิซ่า พาล์มเมอร์: เหตุการณ์เทย์เปรียบได้กับการปล่อยเด็กอายุ 11 ปีเข้าสู่สภาพแวดล้อมที่เสื่อมทรามทางศีลธรรมโดยไม่มีผู้ใหญ่ดูแล สิ่งเลวร้ายจะเกิดขึ้น เหตุการณ์ที่คล้ายกันนี้เกิดขึ้นในวันที่ 5 สิงหาคมปีนี้ Google เปิดตัว Blenderbot 3.0 และหลังจากนั้นไม่นาน ก็มีรายงานว่ามีข้อความไม่เหมาะสมและเป็นเท็จ เหตุผลก็คือบอททั้งสองพบข้อมูลที่เสียหายซึ่งมนุษย์แนะนำบนอินเทอร์เน็ตในกระบวนการเรียนรู้ของเครื่อง เพื่อแก้ไขสถานการณ์ ข้อมูลที่ใช้ในการฝึกโมเดลเหล่านี้ควรได้รับการซ่อมแซมโดยใช้เทคนิคต่างๆ เช่น การแลกเปลี่ยนเพศและการแนะนำข้อมูลสังเคราะห์ที่สะอาด [การแลกเปลี่ยนเพศเป็นเทคนิคที่ข้อมูลที่ใช้ในการสอนระบบได้รับการปรับให้เหมาะสมโดยการรวมประโยคทางเลือกสำหรับแต่ละประโยคที่มีเพศ เมื่อทำเช่นนั้น คำและวลีที่เป็นเพศจะถูกแทนที่ด้วยคำและวลีที่มาจากเพศตรงข้าม] นอกจากนี้ นางแบบจำเป็นต้องตรวจสอบสิ่งต่างๆ เช่น รสนิยมทางเพศ เพศ อัตลักษณ์ ชาติพันธุ์ และศาสนา อีกครั้ง ทีมที่ทำหน้าที่นี้ควรมีความหลากหลายโดยสิ้นเชิง

หลายคนเชื่อว่าการเพิ่มขึ้นของ AI ส่งสัญญาณว่าพนักงานหลายล้านคนจะตกงาน คุณมีความคิดเห็นอย่างตรงไปตรงมาอย่างไรเกี่ยวกับเรื่องนี้ และหากคุณเห็นด้วยกับข้อสันนิษฐานข้างต้น พนักงานในปัจจุบันและอนาคตจะถูกปรับให้เติบโตในโลกที่ขับเคลื่อนด้วย AI ได้อย่างไร

ดร.ลิซ่า พาล์มเมอร์: อย่างที่คุณทราบ ความคิดเห็นแตกต่างกันอย่างมากเกี่ยวกับจำนวนงานที่จะสูญเสียหรือสร้างขึ้นจากผลของปัญญาประดิษฐ์ AI เติบโตอย่างรวดเร็ว และระบบอัตโนมัติที่มีบทบาทในภาคส่วนต่าง ๆ รวมถึงค้าปลีก การผลิตและรถยนต์สนับสนุนทฤษฎีที่ว่าสังคมจำนวนมากจะกลายเป็น ว่างงาน อย่างไรก็ตาม ผู้คนจะไม่ตกงานอย่างรวดเร็ว แต่จะมีงานแต่ละอย่างภายในงานของพวกเขาแทนที่ด้วย AI สิ่งนี้ทำให้งานได้รับการออกแบบใหม่ทั้งหมดอยู่แล้ว เมื่อสิ่งนี้เกิดขึ้น ถึงเวลาแล้วที่เราจะเริ่มเห็น AI เป็นเครื่องมือที่มีประโยชน์สำหรับการปรับปรุงผลงาน ไม่ใช่สิ่งทดแทนที่สมบูรณ์ เพื่อให้พนักงานยังคงมีความเกี่ยวข้องในตลาด พวกเขาจำเป็นต้องยกระดับทักษะและมุ่งมั่นที่จะเรียนรู้อย่างต่อเนื่อง ความคิดที่ว่าเรียนจบแล้วค่อยทำงานจะหายไป เราต้องบูรณาการการได้รับความรู้ในทุกสิ่งที่เราทำและให้รางวัลแก่ผู้ที่เต็มใจขยายขอบเขตความคิดในการทำงาน เราต้องส่งเสริมให้ค้นพบและทำความเข้าใจแนวคิดและวิธีการทำงานใหม่ๆ เพื่อประโยชน์ของพนักงานทั้งในปัจจุบันและอนาคต

โดยธรรมชาติ เมื่อบุคคลก่ออาชญากรรม พวกเขาถูกคาดหวังให้ถูกตั้งข้อหาในความผิดนั้น อย่างไรก็ตาม ด้วย AI แนวคิดเกี่ยวกับความรับผิดชอบทางกฎหมายนั้นคลุมเครือ หากระบบที่ขับเคลื่อนด้วย AI ไม่ทำงานตามที่โปรแกรมไว้ ใครควรรับผิดชอบ โปรแกรมเมอร์ บริษัท หรือทั้งสองอย่าง?

ดร.ลิซา ปาล์มเมอร์: ฟิลด์นี้กำลังพัฒนาและเป็นอันตราย เช่นเดียวกับที่คุณเพิ่งกล่าวถึง ใครบางคนควรรับผิดชอบต่อข้อผิดพลาดที่เป็นอันตราย ซึ่งส่วนใหญ่ไม่เกิดขึ้นในปัจจุบัน ในการพิจารณาว่าใครเป็นเจ้าของความรับผิดชอบนี้ เราจำเป็นต้องปฏิบัติอย่างจริงจัง บริษัทที่ทำกำไรจากผลิตภัณฑ์ AI ที่พัฒนา ทดสอบ และทำการตลาดโดยไม่ได้ผลลัพธ์ตามที่คาดหวัง ควรรับผิดชอบต่อผลลัพธ์ที่ไม่ยุติธรรม ซึ่งหมายความว่าหากระบบจดจำใบหน้าก่อให้เกิดอันตรายจากการระบุตัวบุคคลอย่างผิดพลาด พวกเขาจะต้องรับผิดชอบทางกฎหมาย

คุณเชื่ออย่างสัตย์จริงหรือไม่ว่าประโยชน์ของการปรับใช้เทคโนโลยี AI มีมากกว่าความเสี่ยงที่มาพร้อมกับการใช้งาน

ดร.ลิซ่า พาล์มเมอร์: พูดได้คำเดียวว่า ใช่ ฉันเชื่อว่ามนุษย์และเครื่องจักรจะแก้ปัญหาที่ใหญ่ที่สุดของโลกได้ ฉันเห็นวิธีรักษาโรคมะเร็งโดยใช้ปัญญาประดิษฐ์ร่วมกับความคิดสร้างสรรค์ของมนุษย์ และการค้นหาวิธีแก้ไขปัญหาสิ่งแวดล้อมทั่วโลกของเราก็เป็นอีกหนึ่งความเป็นไปได้ที่น่าตื่นเต้น เพื่อให้บรรลุสิ่งเหล่านี้ AI ต้องมีความสามารถทางเทคนิค ดังนั้นวิวัฒนาการจึงจำเป็นต้องดำเนินต่อไป สังคมจำเป็นต้องยอมรับการเปลี่ยนแปลงในวิธีการทำสิ่งต่างๆ และสุดท้าย เราต้องการกฎหมายที่แนะนำการใช้ AI เพื่อลดโอกาสที่ AI จะถูกใช้เพื่อวัตถุประสงค์ที่เป็นอันตราย เมื่อตรงตามเงื่อนไขทั้งสามนี้ เราก็จะสามารถปลดล็อกศักยภาพของ AI ได้อย่างปลอดภัย

บทลงโทษสำหรับการไม่ปฏิบัติตามนโยบาย AI ควรเป็นอย่างไร

ดร.ลิซ่า พาล์มเมอร์: ฉันอยากเห็นระบบที่ต้องการความเท่าเทียมกันในผลลัพธ์ของระบบหรือกระบวนการใดๆ ที่ใช้ AI องค์กรที่ขายหรือใช้ AI ที่ไม่สร้างผลลัพธ์ที่เท่าเทียมกันจะถูกลงโทษ ตัวอย่างเช่น หากการตรวจสอบประวัติก่อนเข้าทำงานทำให้กลุ่มบุคคลใดขาดคุณสมบัติการจ้างงานอย่างไม่เป็นธรรม บริษัท การใช้ระบบนั้นจะถูกปรับและหยุดใช้ระบบ AI จนกว่าพวกเขาจะสามารถแสดงให้เห็นถึงความเท่าเทียมในการมีสิทธิ์จ้างงาน ผลลัพธ์. สำหรับสหรัฐอเมริกา ทางออกขั้นต่ำอย่างรวดเร็วในการจัดการกับกลยุทธ์ที่มุ่งเน้นผลลัพธ์นี้คือการวางนโยบาย AI ให้อยู่ในขอบเขตของคณะกรรมาธิการการค้าแห่งสหพันธรัฐ

การคาดการณ์อย่างตรงไปตรงมาของคุณเกี่ยวกับนโยบาย AI ในสหรัฐอเมริกาและที่อื่น ๆ เป็นอย่างไร

ดร. ลิซา ปาล์มเมอร์: จากมุมมองเชิงปฏิบัติของสหรัฐฯ มาตรฐานของเรากำลังถูกกำหนดขึ้นโดยประเทศอื่นๆ เช่นเดียวกับที่เกิดขึ้นกับบริษัทอเมริกันที่ถูกบังคับให้ออกแบบการดำเนินงานโดยคำนึงถึงนายพลของสหภาพยุโรป กฎระเบียบคุ้มครองข้อมูล (GDPR) เรากำลังเผชิญกับสถานการณ์ที่คล้ายคลึงกันกับสหภาพยุโรป พระราชบัญญัติ AI คาดว่าจะกลายเป็นเร็ว ๆ นี้ กฎ. แม้ว่าสถานะของเราจะล้าหลัง แต่ฉันก็ได้รับกำลังใจจากสิ่งที่เกิดขึ้นเมื่อเราได้เห็นประธานาธิบดีของพรรครีพับลิกันออกคำสั่งฝ่ายบริหารเกี่ยวกับ AI และสภานิติบัญญัติที่ควบคุมโดยพรรคเดโมแครตได้ประมวลในภายหลัง จากนั้นเมื่อต้นปีนี้ พิมพ์เขียวสำหรับกฎหมายว่าด้วยสิทธิของ AI ก็ได้รับการเผยแพร่ ฉันคิดว่าสหรัฐฯ ได้แสดงความคิดริเริ่ม แต่จำเป็นต้องติดต่อประสานงานกับผู้ที่ล้ำหน้าเราในการพัฒนานโยบายระดับชาติด้าน AI สิ่งนี้มีความสำคัญอย่างยิ่งต่อความมั่นคงของประเทศและความสามารถในการแข่งขันของประเทศ โดยการกำหนดมาตรฐานของรัฐบาลกลางและให้องค์กรต่างๆ รับผิดชอบต่อผลลัพธ์ที่ไม่เท่ากัน เราจะค่อยๆ สร้างผลลัพธ์เชิงบวกให้กับทุกคนผ่าน AI และปลดปล่อยพลังเพื่อแก้ปัญหาที่ใหญ่ที่สุดในโลก ปัญหา.

แหล่งที่มา: โอกลาโฮมาน