რამდენად ახლოს არის AI გრძნობების განვითარებასთან?

click fraud protection

სამეცნიერო ფანტასტიკურ რომანებს ხშირად წარმოიდგენდნენ ხელოვნური ინტელექტიპროგრამები მიდის არასწორად, ძირითადად მას შემდეგ, რაც გააცნობიერეს, რომ კაცობრიობა უნდა დასრულდეს იმისთვის, რომ დედამიწა გადარჩეს და გადაიტანოს მექანიზმები შემდეგ ცივილიზაციურ დონეზე. მაგრამ ნამდვილად შეუძლია თუ არა AI-ს გრძნობა, საკმაოდ დამაბნეველი თემაა. რატომ უნდა ჰქონდეს AI-ს გრძნობები? თავად შესაძლებლობა წარმოუდგენლად ჩანს. დასაწყისისთვის, ემოციური ხელოვნური ინტელექტი უზრუნველყოფს სოციალური კომფორტის უფრო მაღალ ხარისხს და მანქანა-ადამიანის უფრო ზუსტ ურთიერთქმედებას, რათა ცხოვრება გაუადვილოს. წარმოიდგინეთ Google-ის Duplex AI-მ ემოციური სტეროიდები დააყენა. მაგრამ შეუძლია თუ არა AI-ს გრძნობების განვითარება, არსებითად არის დაკავშირებული ემოციების მართვის უნართან. კლინიკური განმარტებებით, ემოციები მხოლოდ იგრძნობა. ისინი წარმოიქმნება ქვეცნობიერიდან გარე სტიმულის ან შინაგანი აჟიოტაჟის საპასუხოდ, რომელიც წარმოიქმნება ისეთი ასპექტებიდან, როგორიცაა რწმენა და სურვილები.

მეორეს მხრივ, გრძნობები თან ახლავს ემოციებს ფიზიკურ გამოვლინებასთან ერთად. რაც მთავარია, ისინი ცნობიერი გამოცდილებაა. გრძნობები და ემოციები თანდათან ვითარდება და ცნობილია, რომ დროთა განმავლობაში იცვლება, თუნდაც ერთი და იგივე საგნის მიმართ. ხელოვნური ინტელექტის ალგორითმების შემთხვევაში, მათი აღქმა კონკრეტული გარეგანი სტიმულის შესახებ დამოკიდებულია მასზე მიწოდებულ მონაცემებზე, ნაცვლად გამოცდილებისა, რომლებიც შეიძლება განსხვავდებოდეს დროთა განმავლობაში. მოკლედ, ა

ხელოვნური ინტელექტის მიდგომა ემოციების გამოყენებისთვის არის სტატიკური. და ამიტომ, მისი პასუხი, რომელიც ტექნიკურად უნდა გამოვლინდეს გრძნობების სახით, უცვლელი დარჩება. ეს ნიშნავს, რომ მაშინაც კი, თუ ხელოვნური ინტელექტის ემოციური გამონათქვამები, იგივე გრძნობები, დღეს არის, ისინი შეიძლება არ იყოს ხვალ, თუ ასეთი AI პროგრამის გარშემო სამყარო შეიცვლება.

შემდეგი დილემა არის ემოციებსა და გრძნობებს შორის კავშირის გაწყვეტა, მიუხედავად იმისა, რომ ეს უკანასკნელი არ შეიძლება წარმოიშვას პირველის გარეშე. ძალიან ხშირია იმის დანახვა, რომ ადამიანებს არ შეუძლიათ ზუსტად აღწერონ ის, რასაც განიცდიან. ხელშესახები განსხვავებაა იმას შორის, რასაც ისინი ამბობენ, რომ გრძნობენ და რას გრძნობენ სინამდვილეში. თუ ხელოვნური ინტელექტის პროგრამა იკვებება ადამიანის ჩანაწერების ნაკრებით, რომელშიც არის ადამიანების მცირე ნაწილი, რომელთა ემოციები და მათი ფიზიკური გამონათქვამები (სხეულის ენა, ვოკალური ტონი და ა.შ.) არ არის სინქრონული ან თუნდაც ოდნავ გამორთული, ხელოვნური ინტელექტის ფუნდამენტური სასწავლო მასალა ხარვეზიანი იქნებოდა მისი მოგზაურობისას ჭეშმარიტების გაგებისკენ. ემოციები. ავიღოთ, მაგალითად, AI პროგრამების მრავალრიცხოვანი საჯარო ტესტირება, როგორიცაა Microsoft-ის Tay და Delphi ან 4Chan მონაცემების გამოყენებით გაწვრთნილი AI-ის ბოლო შემთხვევა, ეს ყველაფერი სწრაფად. დაიწყო მკვლელობისა და რასისტული წინადადებების გამოთქმა. დებატები ხელოვნური ინტელექტის შესახებ, რომელიც გრძნობს კვლავ აძლიერებს ახლახან, როდესაც Google-ის ინჟინერი იყო შეჩერებულია მას შემდეგ, რაც საჯაროდ გამოცხადდა პრეტენზიები, რომ კომპანიის LaMDA AI ჩეთბოტის გენერატორი მგრძნობიარეა.

პერსპექტიული მიზნები, ზედმეტად ამბიციური პრეტენზიები

რა თქმა უნდა, ამ სფეროში მიღწეულია პროგრესი. საუკეთესო მაგალითებია მულტიმოდალური ემოციური ხელოვნური ხელოვნური ინტელექტი და ბუნებრივი ენის დამუშავება, რომელსაც შეუძლია აუდიო-ვიზუალური მინიშნებების გამოყენებით ადამიანის განწყობის გარკვევა. ზოგიერთ შემთხვევაში ადამიანებზე უკეთესიც კი. მაგრამ ემოციების შესასწავლად და დეტალური სენტიმენტალური ანალიზის ჩასატარებლად სხეულის ენის ასობით მარკერის შესწავლა არ ნიშნავს იმას, რომ AI-ს შეუძლია იგივე ემოციური სიღრმით უპასუხოს. ან, მარტივად რომ ვთქვათ, გამოხატოს თავისი გრძნობები პირადი პერსპექტივიდან, ვიდრე სწრაფად გაანალიზოს მილიონობით პასუხი იკვებება მის მონაცემთა ბაზაში და იპოვნეთ ის, რომელიც საუკეთესოდ არის მიჩნეული კონკრეტული სცენარისთვის - როგორც ასწავლის (ან მიზანშეწონილად მიიჩნევს) მისმა ადამიანმა შემქმნელები. ხელოვნური ინტელექტის მიკერძოება უკვე მწვავე დებატების თემაა.

AI+ ეთიკა მნიშვნელოვანია, მაგრამ ნაწილობრივ იქნა გატაცებული AGI (ხელოვნური ზოგადი ინტელექტის) აჟიოტაჟის მიერ. მოდი, მოვიშოროთ AGI სისულელეები და მეტი დრო დაუთმოთ გადაუდებელ პრობლემებს: სამუშაოს დაკარგვა/სტაგნაცია, დემოკრატიის ძირი, დისკრიმინაცია/მიკერძოება, სიმდიდრის უთანასწორობა.

— ენდრიუ ნგ (@AndrewYNg) 2018 წლის 11 ივნისი

ემოციებისა და გრძნობების ერთობლიობაში ჩაყრა ხსნის არასწორ სინთეზურ პასუხების სრულიად ახალ განზომილებას, რომელიც მიზნად ისახავს მიმიკა"ადამიანის შეხება"ურთიერთქმედებაში. კიდევ ერთი მთავარი დაბრკოლება ის არის, რომ ხელოვნური ინტელექტის პასუხები მიზანმიმართულია კონკრეტული მიზნის მისაღწევად, მაგრამ ემოციური და სოციალური ინტელექტი, რომელსაც ადამიანები ავლენენ, ასე არ არის. ასეთი მიზანმიმართული მიდგომით, AI-ს არ ექნება რეფლექსური შეხება ან არაპროგნოზირებადი გრძნობები. ექსპერტები თვლიან, რომ ხელოვნური გენერალური ინტელექტი (AGI) საბოლოოდ შეძლებს გაიმეოროს ყველაზე არსებითად ადამიანური თვისებები, გრძნობების მართვა ერთ-ერთი მათგანია, მაგრამ ეს მომავალი ჯერ კიდევ შორსაა.

მე მჯერა, რომ ბევრი ადამიანი ხელოვნური ინტელექტის საზოგადოებაში კარგად იქნება ამის საჯაროდ თქმა. @elonmusk წარმოდგენა არ აქვს რაზე ლაპარაკობს, როცა AI-ზე საუბრობს. არ არსებობს ისეთი რამ, როგორიცაა AGI და ჩვენ ახლოს არ ვართ ადამიანის ინტელექტის შესატყვისად. #noAGI

— ჯერომ პესენტი (@an_open_mind) 2020 წლის 13 მაისი

აქტუალური ფორმები AI სწავლობენ ემოციების შესწავლასა და მიბაძვას – ან თავაზიანობისა და თანაგრძნობის განსაზღვრული დონის გარეშე – მაგრამ მას არ შეუძლია ჰქონდეს საკუთარი ემოციები ჩიპზე ან ღრუბლოვან სერვერზე. ექსპერტები იყოფა იმაზე, თუ რამდენად შორს ვართ AGI-სგან, მაგრამ მსოფლიოში, სადაც AI აგრძელებს ბრძოლას. ყოველდღიურად მრავალ დავალებას, ასეთი ხელოვნური ინტელექტის გაფუჭებას მინიმუმ ათი წელი დასჭირდება. და კიდევ ათწლეული, ან მეტი, რათა ხელშესახები გავლენა მოახდინოს ადამიანთა ცხოვრებაზე სამზარეულოს თაროზე არსებული Echo დინამიკიდან საუბრისას.

წყარო: ვაშინგტონ პოსტი, სამეცნიერო ამერიკელი

90 დღის საქმრო: ანჯელა ავლენს გამხდარ ფიგურას სარისკო თავსახურით

Ავტორის შესახებ