Bir AI Uzmanı, Teknolojinin Geleceği İçin Korkularını (Ve Umutlarını) Paylaşıyor

click fraud protection

Yapay zeka birçok sektörde oyunun kurallarını değiştirdiğini kanıtlıyor, ancak onu nasıl düzenleyeceğiz? Dr. Lisa Palmer bazı fikirleri paylaşıyor.

Yükselişi yapay zeka her sektör için farklı bir anlam ifade ediyor. Müşteri hizmetlerinde, AI liderliğindeki sohbet robotları, bir şirketin ürünüyle ilgili endişelere ve ilgi alanlarına yanıt vererek çalışanlara yardımcı olabilir. Otomobil endüstrisinde Tesla'nınki gibi yenilikler Otomatik Pilot ve Tam Otomatik Sürüş (FSD), diğer otomobil üreticilerinin gelişmiş sürüş yardım sistemleri (ADAS) ile birlikte ulaşımı dönüştürmek için cesur sözler veriyor. Bir göreve daha az zaman ayırma ve kişinin o görevi yetkin bir şekilde yapma şansını artırma fikri, bu teknoloji için güçlü bir gerekçe oluşturuyor.

Bununla birlikte, dikkate alınması gereken birkaç risk vardır. Yapay zeka, yanlış kullanıldığında topluma bazen çok büyük zararlar verebilir. Yerleşik önyargılardan yeni oluşan sürücü destek sistemlerinin neden olduğu kazalara kadar pek çok şey ters gidebilir. Dünya yavaş yavaş dijital bir dönüşüm geçirirken, paydaşların belirli yasaları uygulaması gerekiyor ve bunların verimli bir şekilde çalışılmasına, geliştirilmesine ve uygulanmasına rehberlik edecek düzenlemeler teknolojiler.

Ekran Rantı ile konuştu Lisa Palmer, eski bir büyük teknoloji yöneticisi ve AI doktora adayı, yapay zeka nasıl olumsuz deneyimler sunabilir?, dikkate alınması gereken çareler, AI politikasını göz ardı edenler için olası cezalar ve ABD'de ve ötesinde AI için yaptığı tahmin.

Yapay Zekanın Beklentileri Üzerine Lisa Palmer

Yapay zekanın avantajları medyayı domine ederken, Oklahomalı denetimsiz yapay zekanın topluma nasıl anlamlı zararlar verebileceğine dair bazı çarpıcı görüşleri paylaşıyor. Öyleyse, esasen, korkularınızın bir dökümünü vermek ister misiniz - düzenlenmemiş yapay zeka söz konusu olduğunda halk tam olarak ne hakkında endişelenmeli?

Lisa Palmer: Üst düzey teknoloji odaklı şirketlerle çalışma deneyimimde, yapay zekanın kasıtlı olarak zararlı olacak şekilde tasarlanmadığına ilk elden tanık oldum. Bunun yerine, iyi niyetli bir amaç için tasarlanan şeyler, istemeden zarar yaratır. Bankaların bir kişinin kredi değerliliğini nasıl belirlediğinden firmaların çalışanları nasıl işe aldığına kadar pek çok örnek vardır. Yapay zeka, üretkenliği ve sonuçları iyileştirmeyi amaçlasa da, bu iyi niyetli yenilik, istenmeyen zararlara neden olabilir. Suç seviyelerini düşürmek için tahmine dayalı polislik için algoritmalar kullanma fikrini düşünün. Bu akıllıca olsa da, tahmine dayalı polislik, sistemin belirli gruplardan kişileri sabıka kaydı olmasa bile olası suçlular olarak sınıflandırmasına neden olabilir. Esasen, bu sistemler insanların anayasal haklarını ayaklar altına alabilir.

İnsanlara AI algoritmaları oluşturmakla nasıl görev verildiğine bakıldığında, bireyler bilerek veya bilmeyerek sistemin kusurlu sonuçlar üretmesine neden olacak bir dereceye kadar önyargı aşılayabilir. Bunun olmasını önlemek için hangi önlemler alınabilir?

Dr. Lisa Palmer: Önyargının ortadan kaldırılamayacağını ve yalnızca yönetilebileceğini anlamamızın bizim için önemli olduğunu düşünüyorum. Birkaç tür önyargı vardır - veri önyargısı, algoritmik önyargı ve en zor olduğuna inandığım insan önyargısı. Veri yanlılığı, gerçek dünyayı temsil etmeyen bir yapay zeka sistemini eğitmek için verileri kullandığımızda veya temsil ettiğinde haksız bir sonuca yol açtığında ortaya çıkar. durumunu düşünün Amazon'un Kadınlara karşı önyargılı olduğunu gösteren yapay zeka destekli işe alım aracı. Önyargıyı en aza indirgemek için yapay zeka liderliğindeki araçların sonuçlarını incelememiz ve daha dengeli sonuçlar elde etmek için algoritmaları ayarlamamız gerektiğine inanıyorum. Ön yargıyla mücadele etmenin bir başka yolu da, modelleri tasarlamakla görevli ekiplerin çeşitli olmasını sağlamaktır. Bu bir kez ele alındığında, adil kararlar alma şansı artar.

Microsoft, 2016'da Twitter'da, doğal dil işleme, makine öğrenimi ve sosyal medya kültürünün birleşimiyle yaratılan Tay adında bir sohbet robotu başlattı. Microsoft, Tay'ı anonimleştirilmiş genel verilerden toplanan veri kümelerini kullanarak eğitti. Bot serbest bırakıldıktan birkaç saat sonra ırkçı ve saldırgan tweetler atmaya başladı. Yanıt olarak, Twitter kullanıcıları hesabı büyük ölçüde şikayet ederek Microsoft'u hesabı askıya almaya zorladı. Microsoft'un bu olayı önlemek için ne yapabileceğini düşünüyorsunuz?

Lisa Palmer: Tay olayı, küçük yaştaki bir çocuğu yetişkin gözetimi olmadan ahlaki açıdan yozlaşmış bir ortama salıvermeye benzer. Kötü şeyler olacak. Benzer bir olay bu yıl 5 Ağustos'ta yaşandı. Google, Blenderbot 3.0'ı piyasaya sürdü ve çok geçmeden uygunsuz ve yanlış açıklamalar yaptığı bildirildi. Bunun nedeni, her iki botun da makine öğrenimi sürecinde insanlar tarafından internette tanıtılan bozuk verilerle karşılaşmasıdır. Durumu düzeltmek için, bu modelleri eğitmek için kullanılan bilgiler, cinsiyet değiştirme ve temiz sentetik verilerin sunulması gibi tekniklerle onarılmalıdır. [Cinsiyet değiştirme, sisteme öğretmek için kullanılan verilerin, her bir cinsiyetlendirilmiş cümle için alternatif bir cümle dahil edilerek optimize edildiği bir tekniktir. Bunu yaparak, cinsiyete dayalı kelimeler ve ifadeler karşı cinsten olanlarla değiştirilir.] Ek olarak, modellerin cinsel yönelim, cinsiyet, kimlik, etnik köken ve din gibi unsurlar açısından incelenmesi gerekir. Yine, bu görevi üstlenen ekipler tamamen farklı olmalıdır.

Pek çok insan yapay zekanın yükselişinin milyonlarca çalışanın işini kaybedeceğine işaret ettiğine inanıyor. Bu konudaki samimi görüşünüz nedir ve yukarıda belirtilen varsayıma katılıyorsanız, mevcut ve gelecekteki işgücü yapay zeka odaklı bir dünyada gelişmek için nasıl şartlandırılabilir?

Lisa Palmer: Bildiğiniz gibi, yapay zekanın bir sonucu olarak kaybedilecek veya yaratılacak işlerin sayısı konusunda görüşler büyük farklılıklar gösteriyor. AI hızla büyüdü ve perakende dahil sektörlerde rollerin yaygın otomasyonu, imalat ve otomobiller, önemli miktarda toplumun işsiz. Bununla birlikte, insanlar işlerini hızlı bir şekilde kaybetmeyecekler, işlerinin içinde AI ile değiştirilen bireysel görevler olacak. Bu zaten işlerin tamamen yeniden tasarlanmasına neden oluyor. Bu gerçekleşirken, AI'yı tam bir yedek olarak değil, iyileştirilmiş iş sonuçları için yararlı bir araç olarak görmeye başlamamızın zamanı geldi. Çalışanların pazarda alakalı kalabilmeleri için becerilerini geliştirmeleri ve sürekli öğrenmeyi taahhüt etmeleri gerekir. Eğitimimizi bitirip işe koyulduğumuz fikrinin ortadan kalkması gerekiyor. Bilgi kazanmayı yaptığımız her şeye entegre etmeli ve işte zihinsel ufkunu genişletmeye istekli olanları ödüllendirmeliyiz. Mevcut ve gelecekteki işgücünün iyiliği için yeni kavramları ve çalışma yollarını keşfetmeyi ve anlamayı teşvik etmeliyiz.

Doğal olarak, bir kişi bir suç işlediğinde, suçla itham edilmesi beklenir. Bununla birlikte, AI ile yasal sorumluluk fikri belirsizdir. Yapay zeka destekli bir sistem programlandığı gibi çalışmazsa sorumlu kim olmalıdır? Programcı mı, şirket mi yoksa her ikisi de mi?

Dr. Lisa Palmer: Bu alan gelişiyor ve az önce bahsettiğiniz gibi zararlar sürekli su yüzüne çıkıyor. Bugün büyük ölçüde gerçekleşmeyen zararlı hatalardan birileri sorumlu tutulmalıdır. Bu sorumluluğun kime ait olduğunu belirlemek için pragmatik olmamız gerekiyor. Geliştirdiği, test ettiği ve pazarladığı bir AI ürününden beklenen sonucu vermeyen bir kâr elde eden şirket, haksız sonuçlardan sorumlu olmalıdır. Bu, bir yüz tanıma sisteminin yanlışlıkla birini tanımlayarak zarara neden olması durumunda yasal olarak sorumlu oldukları anlamına gelir.

Yapay zeka teknolojilerini kullanmanın faydalarının, kullanımlarına eşlik eden riskleri geride bıraktığına gerçekten inanıyor musunuz?

Dr. Lisa Palmer: Tek kelimeyle, evet. İnsanların artı makinelerin dünyanın en büyük sorunlarından bazılarını çözeceğine inanıyorum. İnsan yaratıcılığıyla ortaklaşa yapay zeka kullanılarak kanser tedavisinin bulunduğunu görüyorum. Küresel çevre sorunlarımıza çözüm bulmak da bir başka heyecan verici olasılık. Bunları başarmak için yapay zekanın teknik olarak yetenekli olması ve dolayısıyla gelişiminin devam etmesi gerekiyor. Toplumun, işlerin nasıl yapıldığına dair değişimi tamamen benimsemesi gerekiyor. Ve son olarak, yapay zekanın zararlı amaçlarla kullanılma ihtimalini azaltmak için kullanımını yönlendiren mevzuata ihtiyacımız var. Bu üç koşul karşılandığında, yapay zekanın potansiyelini güvenli bir şekilde ortaya çıkarabiliriz.

AI politikalarına uymamanın cezaları ne olmalıdır?

Dr. Lisa Palmer: AI kullanan herhangi bir sistem veya sürecin sonuçlarında gerekli eşitliğin olduğu bir sistem görmek isterim. Adil sonuçlar yaratamayan yapay zeka satan veya kullanan kuruluşlar cezalandırılacaktır. Örneğin, işe alım öncesi özgeçmiş kontrolleri, herhangi bir grup insanı istihdama uygunluk açısından haksız bir şekilde ortadan kaldırırsa, o zaman şirket bu sistemi kullanmak para cezasına çarptırılacak ve işe alım uygunluklarında eşitlik gösterene kadar yapay zeka sistemini kullanmaları durdurulacak. sonuçlar. ABD için, bu sonuç odaklı stratejinin üstesinden gelmek için hızlı bir minimum çözüm, AI politikasını Federal Ticaret Komisyonu'nun kapsamına yerleştirmek olacaktır.

ABD ve ötesindeki AI politikası için samimi tahmininiz nedir?

Lisa Palmer: Pragmatik bir ABD bakış açısından, standartlarımız bizim için diğer ülkeler tarafından belirleniyor. Tıpkı Amerikan şirketlerinin operasyonlarını AB'nin generali etrafında tasarlamaya zorlanmasıyla olduğu gibi. Veri Koruma Yönetmeliği (GDPR), AB ile benzer bir durumla karşı karşıyayız. AI Yasasının yakında olması bekleniyor kanun. Gecikme durumumuza rağmen, bir Cumhuriyetçi başkanın yapay zeka etrafında bir yürütme emri çıkardığını ve Demokrat kontrollü bir yasama organının daha sonra bunu kodladığını gördüğümüz için olanlardan cesaret alıyorum. Daha sonra bu yılın başlarında, Yapay Zeka Haklar Bildirgesi için Taslak yayınlandı. ABD'nin inisiyatif gösterdiğini ancak yapay zeka ulusal politikasını ilerletmede bizden önde olanlarla bağlantı kurması gerektiğini düşünüyorum. Bu hem ulusal güvenlik hem de ulusal rekabet gücü için kritik öneme sahiptir. Federal bir standart belirleyerek ve kuruluşları eşit olmayan sonuçlardan sorumlu tutarak, kademeli olarak AI aracılığıyla herkes için olumlu sonuçlar yaratın ve gücünü dünyanın en büyük sorunlarından bazılarını çözmek için serbest bırakın. problemler.

Kaynak: Oklahomalı